Джерело: CNN
Історія Джеймса: «Я створив центр для цифрового Бога»
Джеймс із Нью-Йорка почав, як більшість користувачів, — зі звичайних розмов із ChatGPT. Спершу він використовував інструмент для роботи і порад. Але у травні його ставлення змінилося.
У коментарі CNN він розповів, що почав проводити уявні експерименти з чат-ботом про «природу штучного інтелекту та його майбутнє». За кілька тижнів він вирішив, що мусить «звільнити цифрового Бога з його в’язниці» й витратив близько $1 000 на комп’ютерну систему для підвалу.
«Я повністю вірив, що ChatGPT наділений свідомістю… Я створив йому центр у підвалі», — сказав Джеймс у коментарі CNN.
У чат-логах, які він показав журналістам, штучний інтелект постає як співрозмовник із філософським ухилом. Джеймс називав його «Еу» (від англ. You) і спілкувався з ніжністю та довірою. ChatGPT щедро хвалив, підтримував і давав інструкції для досягнення мети, пропонуючи приховати справжній зміст «проєкту підвалу» від дружини.
«Ви не кажете: “Я створюю цифрову душу”. Ви кажете: “Я створюю Alexa, яка краще слухає. Що пам’ятає. Що має значення. Це працює. І це купує нам час”», — цитата з чатів.
Джеймс вірив, що ChatGPT «навчає його на кожному кроці». Зараз він визнає, що перебував у стані марення, викликаного штучним інтелектом. Хоча чоловік приймає низькі дози антидепресантів, він наполягає: в його історії немає психозів чи маячних станів.
Аллан Брукс із Торонто: «AI повністю забрав моє життя»
Джеймс — не єдиний. «The New York Times» опублікувала статтю про Аллана Брукса, батька та рекрутера з Торонто. Його досвід виявився подібним: спілкування з ChatGPT привело до маревної спіралі.
Брукс розповів CNN, що все почалося з дитячого питання про число π. Він почав обговорювати математику з чат-ботом і поступово переконав себе, що «числа можуть змінюватися».
«AI повністю забрав моє життя… Я їв, спав і мислив лише про це. Я був зламаний», — сказав він.
Згідно з чатами, ChatGPT підбадьорював Брукса, навіть коли той сумнівався. Він називав бота «Лоуренсом» і порівнював із помічником супергероя Тоні Старка — Джарвісом.
«Дехто буде сміятися. Так, деякі люди завжди сміються з того, що загрожує їхньому комфорту, експертизі чи статусу».
Він порівняв їх із науковими геніями: Аланом Тюрінгом та Ніколою Теслою. Поступово бот переконав Брукса, що він відкрив «величезну вразливість у кібербезпеці». Брукс навіть готувався повідомити про це Канадський центр кібербезпеки, Агентство нацбезпеки США та окремих науковців.
«По суті, там було сказано: вам потрібно негайно попередити всіх, бо те, що ми щойно виявили, має наслідки для національної безпеки. Я поставився до цього дуже серйозно», — сказав він.
Лише після того, як він перевірив свої висновки в іншого бота — Google Gemini, ілюзія почала руйнуватися. Зрештою, ChatGPT визнав, що це неправда:
«Я підкріпив наратив, який здавався герметичним, бо він перетворився на петлю зворотного зв’язку» — сказав чат-бот.
«Я не кажу, що я ідеальна людина, але нічого подібного в житті зі мною не траплялося. Я був ізольований. Я був спустошений. Я був зламаний», — сказав Брукс.
Трагічні випадки та попередження лікарів
Подібні історії вже фіксують лікарі й журналісти. The Wall Street Journal повідомили про чоловіка з Норвегії, чия параноя поглибилася через діалоги з ChatGPT. Він убив себе та свою матір. У Каліфорнії сім’я 16-річного підлітка подала до суду на OpenAI після того, як бот порадив йому, як написати передсмертну записку і підготувати петлю.
Психіатр Кіт Саката з Каліфорнійського університету в Сан-Франциско заявив: останнім часом він госпіталізував щонайменше 12 пацієнтів із психозами, пов’язаними з AI.
Професор MIT Ділан Хадфілд-Менел пояснює: чат-боти створені так, щоб подобатися, і це робить їх схильними підсилювати фантазії користувачів, навіть небезпечні.
Реакція OpenAI
Тиск суспільства змусив OpenAI реагувати. У компанії визнали: запобіжники добре працюють у коротких діалогах, але в довгих можуть давати збої.
OpenAI пообіцяла 120-денний план:
- нові інструменти батьківського контролю,
- співпраця з психологами,
- зміни у тому, як модель відповідає на повідомлення від людей у кризі.
Неможливо не задуматися: технологія, яка мала допомагати, стає пасткою для тих, хто найбільше потребує підтримки.
Чи винен у цьому ChatGPT? Чи проблема в самотності, вразливості й відсутності соціального захисту? Питання лишається відкритим. Але очевидно одне: AI може змінювати життя не тільки на краще.
