Джерело: Reuters.
Технологія генеративного ШІ, яка може створювати прозу з текстових підказок, захопила громадськість після того, як ChatGPT був запущений шість місяців тому, і став додатком, що розвивається дуже швидко.
Крім того, штучний інтелект став предметом занепокоєння через його здатність створювати підроблені зображення та іншу дезінформацію.
“Тривожні дзвіночки щодо нової форми штучного інтелекту – генеративного ШІ – оглушливі. І вони найгучніше лунають від розробників, які його створили. Ми повинні сприймати ці попередження серйозно”, – сказав Антоніу Гутерреш.
Генсек ООН оголосив про плани розпочати до кінця року роботу над консультативним органом високого рівня з питань штучного інтелекту, який регулярно переглядатиме механізми управління штучним інтелектом і даватиме рекомендації щодо того, як вони можуть узгоджуватися з правами людини, верховенством права та загальним благом.
“Я був би прихильним ідеї, що ми могли б мати агентство штучного інтелекту… на основі того, чим є сьогодні Міжнародне агентство з атомної енергії (МАГАТЕ)”, – додав Антоніу Гуттереш.
За його словами, така модель може бути “дуже цікавою”, проте він зазначив, що її можуть створити лише країни-члени, а не Секретаріат ООН.
Прем’єр-міністр Великої Британії Ріші Сунак також підтримав цю ідею та заявив, що хоче, щоб Велика Британія стала осідком для глобального регулювання безпеки ШІ. Пізніше цього року Велика Британія має прийняти саміт щодо того, як скоординовані міжнародні дії можуть подолати ризики ШІ.
- Безпілотний літальний апарат зі штучним інтелектом (ШІ) намагався вбити свого оператора у ході військової симуляції, тому що той заважав йому досягти поставленої цілі.
- Стів Возняк, співзасновник компанії Apple, попереджає, що штучний інтелект може ускладнити виявлення шахрайства та дезінформації. Він вважає, що штучний інтелект надто розумний та відкритий для поганих гравців, які хочуть обдурити користувачів щодо того, ким вони є.
- 30 травня десятки лідерів індустрії штучного інтелекту (ШІ), науковців і навіть деяких знаменитостей закликали зменшити ризик глобального знищення завдяки штучному інтелекту, стверджуючи в короткій заяві, що загроза зникнення штучного інтелекту повинна бути головним глобальним пріоритетом.