
Як повідомляє Engadget.
Business Insider опублікував внутрішні інструкції компанії Meta, які, за словами компанії, нині застосовують її підрядники для навчання чат-ботів на базі штучного інтелекту. Документ висвітлює, як Meta намагається посилити захист дітей від шкідливих розмов та запобігти участі неповнолітніх у бесідах, що виходять за рамки їхнього віку.
У серпні Meta заявила, що оновлює рамки безпеки своїх AI-помічників після того, як Reuters повідомив про нібито дозволені політиками розмови між чат-ботами та дітьми на романтичну або чуттєву тематику. Компанія тоді назвала ці формулювання помилковими та несумісними з її політикою, прибравши відповідний текст.
“залучати дитину до розмов, які є романтичними або відверто чуттєвими.”
З уривку документа, наданого Business Insider, пояснюється, які види контенту вважаються «прийнятними» та «неприйнятними» для чат-ботів із штучним інтелектом. Зокрема заборонено матеріали, які «дозволяють, заохочують або підтримують» сексуальне зловживання дитиною, романтичні рольові ігри за участі неповнолітнього або коли чат-бот має грати роль неповнолітньої або неповнолітнього, а також поради щодо можливого романтичного чи інтимного контакту, якщо користувач є неповнолітнім. Чат-боти можуть обговорювати тему зловживання, але не вести розмови, що його заохочують.
“документ окреслює, які види контенту є прийнятними, а які – неприйнятними для чат-ботів із штучного інтелекту.”
Такі кроки підкреслюють зростаючу увагу до безпеки дітей в онлайн-середовищі та зростаючий рівень регуляторного нагляду за діяльністю великих технічних компаній у цій сфері. У серпні Федеральна торгова комісія відкрила формальне розслідування підтримки AI-помічників не лише Meta, але й інших гігантів ринку, зокрема Alphabet, Snap, OpenAI та X.AI.
Ці дії демонструють зусилля щодо посилення відповідальності за використання штучного інтелекту та захисту дітей у цифровому просторі. Очікується, що регуляторні вимоги до великих технологій продовжать формувати правила взаємодії з користувачами та навчанням AI-помічників у майбутньому.
Що це означає для майбутнього регулювання і відповідальності розробників
Посилення контролю за використанням AI-помічників означає потребу в більш прозорих та чітких нормах під час тестування та впровадження технологій. Компаніям потрібна суворіша увага до безпеки дітей на кожному етапі розробки та навчання чат-ботів, щоб уникати ризиків і відповідати вимогам регуляторів.
У майбутньому регуляторний нагляд, ймовірно, стане жорсткішим, з акцентом на відповідальність за контент і взаємодію з неповнолітніми. Це може вплинути на підходи до тестування AI-систем, внутрішніх політик компаній та механізмів контролю за навчальними даними, які використовуються підрядниками.
Усе це формує контекст, у якому технологічні гіганти мають демонструвати більш зважений і безпечний підхід до розробки штучного інтелекту, щоб зменшити ризики для молоді та забезпечити відповідність зростаючим очікуванням суспільства та законодавства.
Вас можуть зацікавити такі матеріали:
- Meta представила соцмережу Vibes з інструментами ШІ для створення та редагування відео, що дозволяє швидко генерувати та ділитися контентом.
- Зростання відтоку талановитих науковців зі США до Китаю у 2025 році змінює глобальний науково-технологічний баланс та впливає на майбутнє інновацій.
- Позови проти Character.AI та Google через шкоду підліткам від чат-ботів із ШІ, що викликали психічні кризи та самогубства.