Інструмент під назвою Media Manager мав «ідентифікувати текст, зображення, аудіо та відео, захищені авторським правом», як стверджували тоді в OpenAI. Це мало відволікти найзапекліших критиків компанії та потенційно захистити OpenAI від юридичних проблем, пов'язаних із інтелектуальною власністю.
Але джерела, знайомі з цим питанням, розповіли, що всередині компанії цей інструмент рідко розглядався як важливий запуск.
«Я не вважаю, що це був пріоритет, — сказав один колишній співробітник OpenAI. — Чесно кажучи, я не пам'ятаю, щоб хтось над ним працював».
Людина, яка не є співробітником компанії, але координує роботу з нею, розповіла, що вони обговорювали цей інструмент з OpenAI в минулому, але в останній час не було жодних оновлень.
А член юридичної команди OpenAI, який працював над Media Manager, Фред фон Ломанн, у жовтні перейшов на посаду консультанта на неповний робочий день.
OpenAI ще не надала оновленої інформації про хід роботи над Media Manager, і компанія не вклалася в встановлений нею ж термін запуску інструмента «до 2025 року».
Штучний інтелект, як OpenAI, вивчає закономірності в даних, щоб робити прогнози. ChatGPT може писати есе та листи, а Sora створює реалістичні відео. Моделі, навчені на веб-даних, іноді відтворюють майже точні копії цих матеріалів, що може порушувати права авторів. Наприклад, Sora генерує кліпи з логотипом TikTok, а ChatGPT цитував статті The New York Times, викликаючи обурення авторів.