Про це повідомляє Bloomberg.

У компанії стурбовані тим, що дані, які отримують такі чат-боти, як Google Bard і Bing, зберігаються на зовнішніх серверах. Це ускладнює їх пошук і видалення. Крім того, зберігання коду у такому форматі може призвести до того, що вони стануть відомі іншим користувачам.

За результатами опитування всередині компанії, 65% респондентів вважають, що подібні сервіси становлять ризик для безпеки. Минулого місяця інженери Samsung випадково виклали внутрішній вихідний код, завантаживши його в ChatGPT, але, що саме містила ця інформація – невідомо.

Представник Samsung підтвердив, що компанія сповістила співробітників про заборону використання сервісів генеративного ШІ. Рішення стосується роботи на комп’ютерах, планшетах і телефонах компанії, а також в її внутрішніх мережах.

Компанія не забороняє користуватися ШІ для власних цілей, але співробітники не повинні надавати жодної інформації, пов’язаної з Samsung, або персональними даними, які можуть розкрити її інтелектуальну власність. Порушення нових правил може призвести до звільнення.