
Як повідомляє Gizmodo.
OpenAI рухається у напрямку нової соціальної екосистеми, де чат‑інструменти перетворюються на повноцінні відео‑платформи. Нещодавні чутки розкривають концепцію Sora 2 – окремий застосунок із стрічкою перегляду у стилі TikTok, де всі ролики створюються штучним інтелектом.
У цей сервіс закладено звичний механізм навігації: вертикальний перегляд за допомогою свайпу вгору, персоналізований алгоритм рекомендацій та інтерактивність – можливість ставити лайки, залишати коментарі та реміксувати публікації. Головна відмінність полягає в тому, що вся візуальна дійсність формується штучним інтелектом: модель може обробляти текст, фото або існуюче відео й перетворювати їх на нові відеоролики тривалістю до близько 10 секунд, що пов’язано з технічними обмеженнями поточної генерації.
Зазначимо, що завантаження фото чи відео без попереднього редагування всередині Sora 2 не передбачене – усе матеріали підлягають внутрішній обробці платформи.
Особливий соціальний аспект та приватність
Хоча концепція звучить інноваційно, впровадження соціальної складової викликає чимало питань щодо приватності. За задумом, застосунок може запитувати підтвердження особи за допомогою розпізнавання обличчя для підтвердження схожості. Після підтвердження образ може використовуватися в відео, а інші користувачі зможуть тегати людину та застосовувати її вигляд у своїх матеріалах. Більшість таких використань будуть відслідковуватись кожного разу, коли образ використано, навіть якщо згенероване відео збережено як чернетку. Чи стане це публічною практикою – питання, що потребує ретельних рішень з боку розробників та регуляторів.
Можливість запровадження опцій відмови або обмежень щодо використання чужого образу також обговорюється, однак питання приватності та захисту персональних даних залишаються відкритими та потребують чітких норм.
Безпека контенту та регуляторні обмеження
У рамках концепції очікується запровадження механізмів захисту контенту: штучний інтелект повинен відмовляти в створенні матеріалів, що порушують авторські права, а також застосовуватимуться фільтри для обмеження окремих категорій відео. Проте випробування системи індикативно свідчать, що ризик появи забороненого контенту не зникає повністю навіть за нижчих ймовірностей.
ЗМІ повідомляють про запити до OpenAI щодо планів стосовно Sora 2, але на момент публікації відповіді не надійшло. Існують чутки, що запуск Sora 2 міг збігтися з анонсом GPT‑5. Наразі проєкт залишається у концептуальній стадії, але сама ідея повністю AI‑соціальної стрічки підкреслює користь ізоляції AI‑контенту в спеціальних рамках.
Незалежно від того, чи стане Sora 2 реальністю, залишається питання балансу між інновацією, приватністю та правами на контент. Очевидно, OpenAI прагнутиме зберегти контроль за використанням образів та впровадити регуляторні й технічні обмеження, щоб мінімізувати ризики для користувачів та творців.
Згідно з Wired, застосунок попросить користувачів підтверджувати особу за допомогою розпізнавання обличчя, щоб підтвердити схожість. Після підтвердження їхній образ може бути використаний у відео, а інші користувачі зможуть тегати їх і застосовувати їхній вигляд у своїх матеріалах.
Усі ці аспекти вказують на необхідність ретельного регуляторного та технічного підходу до майбутнього AI‑суспільного контенту: його користь у навчанні та розвагах має поєднуватися з дієвими засобами захисту приватності, авторських прав і безпеки користувачів.
Вас можуть зацікавити такі матеріали:
- Nvidia планує інвестувати $100 млрд у OpenAI, створюючи нову економіку штучного інтелекту з циркулярними фінансовими зв’язками між компаніями.
- Пекін різко відреагував на нові експортні обмеження США щодо китайських технологічних компаній, що загострює технологічну конкуренцію між країнами.
- Лінда Яккаріно залишає посаду генеральної директорки соціальної мережі X після двох років роботи, відкриваючи нову главу для платформи з розвитком стартапу xAI.