Джерело: Reuters.

“Компанія Google порадила своїм співробітникам не вводити конфіденційні матеріали у чат-боти зі штучним інтелектом”, – йдеться у повідомленні.

Чат-боти, серед яких Bard і ChatGPT, – це програми, що нагадують людину, які використовують так званий генеративний штучний інтелект для спілкування з користувачами та відповідей на безліч підказок. Рецензенти можуть читати чати, і дослідники виявили, що подібний ШІ може відтворювати дані, які він поглинав під час навчання, створюючи ризик витоку.

За словами анонімних джерел, міжнародний конгломерат компаній Alphabet, до якого входить Google, також попередив своїх інженерів, щоб вони уникали прямого використання комп’ютерного коду, який можуть генерувати чат-боти.

На прохання про коментарі компанія сказала, що чат-бот Bard може вносити небажані пропозиції щодо коду, але це все одно допомагає програмістам. Google також заявив, що прагне бути прозорим щодо обмежень своїх технологій.

Обережність Google також відображає те, що стає стандартом безпеки для корпорацій, а саме попереджати персонал про використання загальнодоступних програм чату.

Дедалі більше компаній у всьому світі встановлюють обмеження для чат-ботів зі штучним інтелектом, серед них Samsung, Amazon.com і Deutsche Bank.

Близько 43% працівників використовували ChatGPT або інші інструменти штучного інтелекту станом на січень 2023 року, часто не повідомляючи про це своїм керівникам та директорам.

У лютому цього року компанія Google наказала своїм співробітникам, які тестували чат-бот зі ШІ Bard перед його запуском, не надавати внутрішню інформацію. Зараз Google розгортає Bard у більш ніж 180 країнах і 40 мовами як плацдарм для творчості.

Також компанія Google повідомила, що провела детальні розмови з комісією із захисту даних Ірландії та розглядає питання регуляторів після того, як у вівторок у Politico повідомили, що компанія відкладає запуск Bard в ЄС на цьому тижні до отримання додаткової інформації про вплив чат-бота на конфіденційність.