Джерело: The New York Times.
Радник президента США з національної безпеки Джейк Салліван закликав колег провести відповідну дискусію. Поштовхом стала нова лінгвістична модель штучного інтелекту від OpenAI, аби “вперше зосередитися на можливостях дезінформації, хаосу та фізичного знищення критичної інфраструктури”.
Поки що невідомо, чи зможуть очільники групи підтримувати розмову про технологію. Раніше були спроби, коли групу намагалися змусити порушити набагато простіші питання кібербезпеки, але вони, зазвичай, зводилися до банальності про “державно-приватне партнерство”. Тобто досі серйозного обговорення правил використання кіберзброї ніколи не було.
За словами посадовців США, у випадку з чат-ботами навіть розпливчасте фундаментальне обговорення може допомогти у встановленні принципів. Вони стосуються корпорацій, які випускають продукти з використанням широкомовних моделей, зокрема відповідальні за їхню безпечність, та щодо того, чи повинні існувати правила прозорості, що дають зрозуміти, які дані використовувалися для кожної системи.
Обговорення дозволить помічникам очільників групи працювати над розробкою проєкту таких перших правил.
- Генеральний директор OpenAI Сем Альтман заявив, що він занепокоєний ймовірним впливом штучного інтелекту на вибори у США наступного року та просить співпраці з урядовцями.
- Стів Возняк, співзасновник компанії Apple, попереджає, що штучний інтелект може ускладнити виявлення шахрайства та дезінформації. Він вважає, що штучний інтелект надто розумний та відкритий для поганих гравців, які хочуть обдурити користувачів щодо того, ким вони є.