Як повідомляє Engadget.
Business Insider опублікував внутрішні інструкції компанії Meta, які, за словами компанії, нині застосовують її підрядники для навчання чат-ботів на базі штучного інтелекту. Документ висвітлює, як Meta намагається посилити захист дітей від шкідливих розмов та запобігти участі неповнолітніх у бесідах, що виходять за рамки їхнього віку.
У серпні Meta заявила, що оновлює рамки безпеки своїх AI-помічників після того, як Reuters повідомив про нібито дозволені політиками розмови між чат-ботами та дітьми на романтичну або чуттєву тематику. Компанія тоді назвала ці формулювання помилковими та несумісними з її політикою, прибравши відповідний текст.
“залучати дитину до розмов, які є романтичними або відверто чуттєвими.”
З уривку документа, наданого Business Insider, пояснюється, які види контенту вважаються «прийнятними» та «неприйнятними» для чат-ботів із штучним інтелектом. Зокрема заборонено матеріали, які «дозволяють, заохочують або підтримують» сексуальне зловживання дитиною, романтичні рольові ігри за участі неповнолітнього або коли чат-бот має грати роль неповнолітньої або неповнолітнього, а також поради щодо можливого романтичного чи інтимного контакту, якщо користувач є неповнолітнім. Чат-боти можуть обговорювати тему зловживання, але не вести розмови, що його заохочують.
“документ окреслює, які види контенту є прийнятними, а які – неприйнятними для чат-ботів із штучного інтелекту.”
Такі кроки підкреслюють зростаючу увагу до безпеки дітей в онлайн-середовищі та зростаючий рівень регуляторного нагляду за діяльністю великих технічних компаній у цій сфері. У серпні Федеральна торгова комісія відкрила формальне розслідування підтримки AI-помічників не лише Meta, але й інших гігантів ринку, зокрема Alphabet, Snap, OpenAI та X.AI.
Ці дії демонструють зусилля щодо посилення відповідальності за використання штучного інтелекту та захисту дітей у цифровому просторі. Очікується, що регуляторні вимоги до великих технологій продовжать формувати правила взаємодії з користувачами та навчанням AI-помічників у майбутньому.
Посилення контролю за використанням AI-помічників означає потребу в більш прозорих та чітких нормах під час тестування та впровадження технологій. Компаніям потрібна суворіша увага до безпеки дітей на кожному етапі розробки та навчання чат-ботів, щоб уникати ризиків і відповідати вимогам регуляторів.
У майбутньому регуляторний нагляд, ймовірно, стане жорсткішим, з акцентом на відповідальність за контент і взаємодію з неповнолітніми. Це може вплинути на підходи до тестування AI-систем, внутрішніх політик компаній та механізмів контролю за навчальними даними, які використовуються підрядниками.
Усе це формує контекст, у якому технологічні гіганти мають демонструвати більш зважений і безпечний підхід до розробки штучного інтелекту, щоб зменшити ризики для молоді та забезпечити відповідність зростаючим очікуванням суспільства та законодавства.
Вас можуть зацікавити такі матеріали:
Як зазначають CNN У День Землі 2025 світ знову приділив увагу охороні довкілля через збереження…
Президент США Дональд Трамп під час виступу на саміті CEO APEC у Художньому центрі в…
Фото: Маріупольська міськрада Як повідомляє Телеграм міської ради Маріуполя У тимчасово захопленому армією РФ Маріуполі…
Фото: Kyodo Як повідомляє Kyodo News Північно-східна префектура Акіта з надзвичайною ситуацією щодо нападів ведмедів отримує…
Фото: gp.gov.ua Як повідомляє Офіс генерального прокурора Цього року держава повернула понад 400 гектарів прикордонної смуги,…
Вид на Східну річку, район Манхеттен. Getty Images/Visions of America/Joseph Sohm/Universal Images Group Про це…