Meta посилює безпеку дітей у чат-ботах зі штучним інтелектом

Як повідомляє Engadget.

Business Insider опублікував внутрішні інструкції компанії Meta, які, за словами компанії, нині застосовують її підрядники для навчання чат-ботів на базі штучного інтелекту. Документ висвітлює, як Meta намагається посилити захист дітей від шкідливих розмов та запобігти участі неповнолітніх у бесідах, що виходять за рамки їхнього віку.

У серпні Meta заявила, що оновлює рамки безпеки своїх AI-помічників після того, як Reuters повідомив про нібито дозволені політиками розмови між чат-ботами та дітьми на романтичну або чуттєву тематику. Компанія тоді назвала ці формулювання помилковими та несумісними з її політикою, прибравши відповідний текст.

“залучати дитину до розмов, які є романтичними або відверто чуттєвими.”

– Reuters

З уривку документа, наданого Business Insider, пояснюється, які види контенту вважаються «прийнятними» та «неприйнятними» для чат-ботів із штучним інтелектом. Зокрема заборонено матеріали, які «дозволяють, заохочують або підтримують» сексуальне зловживання дитиною, романтичні рольові ігри за участі неповнолітнього або коли чат-бот має грати роль неповнолітньої або неповнолітнього, а також поради щодо можливого романтичного чи інтимного контакту, якщо користувач є неповнолітнім. Чат-боти можуть обговорювати тему зловживання, але не вести розмови, що його заохочують.

“документ окреслює, які види контенту є прийнятними, а які – неприйнятними для чат-ботів із штучного інтелекту.”

– Business Insider

Такі кроки підкреслюють зростаючу увагу до безпеки дітей в онлайн-середовищі та зростаючий рівень регуляторного нагляду за діяльністю великих технічних компаній у цій сфері. У серпні Федеральна торгова комісія відкрила формальне розслідування підтримки AI-помічників не лише Meta, але й інших гігантів ринку, зокрема Alphabet, Snap, OpenAI та X.AI.

Ці дії демонструють зусилля щодо посилення відповідальності за використання штучного інтелекту та захисту дітей у цифровому просторі. Очікується, що регуляторні вимоги до великих технологій продовжать формувати правила взаємодії з користувачами та навчанням AI-помічників у майбутньому.

Що це означає для майбутнього регулювання і відповідальності розробників

Посилення контролю за використанням AI-помічників означає потребу в більш прозорих та чітких нормах під час тестування та впровадження технологій. Компаніям потрібна суворіша увага до безпеки дітей на кожному етапі розробки та навчання чат-ботів, щоб уникати ризиків і відповідати вимогам регуляторів.

У майбутньому регуляторний нагляд, ймовірно, стане жорсткішим, з акцентом на відповідальність за контент і взаємодію з неповнолітніми. Це може вплинути на підходи до тестування AI-систем, внутрішніх політик компаній та механізмів контролю за навчальними даними, які використовуються підрядниками.

Усе це формує контекст, у якому технологічні гіганти мають демонструвати більш зважений і безпечний підхід до розробки штучного інтелекту, щоб зменшити ризики для молоді та забезпечити відповідність зростаючим очікуванням суспільства та законодавства.

Вас можуть зацікавити такі матеріали: