Джерело: CNN
“Зменшення ризику зникнення через ШІ повинно бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна”, — йдеться в заяві, опублікованій Центром безпеки ШІ.
Заява була підписана провідними представниками галузі, включаючи генерального директора OpenAI Сема Альтмана, так званий “хрещений батько” ШІ Джефрі Гінтон, топ-менеджери та дослідники Google DeepMind і Anthropic, Кевін Скотт, головний технічний директор Microsoft, Брюс Шнаєр, піонер безпеки в Інтернеті та криптографії, захисник клімату Білл Маккіббен і музикант Ґраймз.
У заяві підкреслюється широке занепокоєння щодо кінцевої небезпеки неконтрольованого штучного інтелекту. Фахівці зі ШІ кажуть, що суспільство ще далеко від розвитку загального ШІ, який є предметом наукової фантастики. Сучасні передові чат-боти в основному відтворюють шаблони на основі навчальних даних, які вони отримали, і не думають самостійно.
Проте, потік ажіотажу та інвестицій у індустрію штучного інтелекту призвели до закликів регулювання на початку епохи штучного інтелекту, до того, як відбудуться серйозні невдачі.
Ця заява з’явилася після вірусного успіху OpenAI’s ChatGPT, який допоміг посилити гонку озброєнь у технологічній індустрії ШІ. У відповідь на це все більше законодавців, правозахисних груп і технічних інсайдерів висловлюють тривогу щодо потенціалу нової серії чат-ботів на основі ШІ для поширення дезінформації та витіснення робочих місць.
Хінтон, чия новаторська робота допомогла сформувати сучасні системи штучного інтелекту, раніше сказав CNN, що вирішив залишити свою посаду в Google і “проголосити в свисток” про цю технологію після того, як усвідомив, “що ці речі стають розумнішими за нас”.
Ден Хендрікс, директор Центру безпеки штучного інтелекту, написав у Twitter у вівторок, що твердження, вперше запропоноване Девідом Кройгером, професором ШІ в Кембридзькому університеті, не перешкоджає суспільству звертатися до інших типів ризику ШІ, таких як упередженість алгоритмів або дезінформація.
“Суспільство може керувати кількома ризиками одночасно; це не “або/або”, а “так/і”, – твітнув Хендрікс. “З точки зору управління ризиками, так само як було б необачно визначати пріоритетність поточної шкоди, було б також нерозсудливо ігнорувати їх”.
- Канадські регулятори розпочинають спільне розслідування щодо збору та використання даних OpenAI, компанії-розробника ChatGPT.
- Гендиректор OpenAI Сем Альтман заявив, що компанія, ймовірно, вийде з Європи, якщо не зможе пристосуватися до майбутніх правил щодо штучного інтелекту.
- Генеральний директор OpenAI Сем Альтман заявив, що він занепокоєний ймовірним впливом штучного інтелекту на вибори у США наступного року та просить співпраці з урядовцями.