Генератор видео от OpenAI может угрожать выборам в США
Лента новостей
Фальшивые видео могут сеять путаницу и хаос, пишет Bloomberg. Например, Sora можно использовать как инструмент, чтобы показать длинные очереди в плохую погоду и тем самым убедить людей, что не стоит принимать участие в выборах. Но опасность сервиса этим не ограничивается
В середине февраля OpenAI представила новую нейросеть Sora для создания видео на основе текстовых инструкций. Разработка может повлиять на президентские выборы США. По крайней мере, такие опасения по поводу возможностей сервиса высказывает Bloomberg.
На прошлой неделе презентация платформы впечатлила специалистов и простых пользователей. Если верить OpenAI, Sora по короткому запросу способна рисовать гиперреалистичные ролики с любым содержанием — от космонавта в вязаном скафандре до собак-подкастеров.
Пока компания проводит тестирование модели на предмет уязвимостей и возможных злоупотреблений, но Bloomberg уже бьет тревогу. Как пишет агентство, никакие ограничения на насилие или изображения знаменитостей не сделают инструмент абсолютно безопасным. Например, в день голосования злоумышленники могут создать огромное число видео с очередями или беспорядками на участках и тем самым подавить явку. В связи с этим агентство предлагает OpenAI «серьезно подумать» над тем, чтобы не выводить Sora до ноябрьских выборов.
Продолжает ведущая Firstpost Палки Шарма:
На данный момент Sora доступна только закрытому кругу тестировщиков. В OpenAI сообщили, что защищенность сервиса также проверяют методом «красных команд», когда специалисты по безопасности выступают в роли хакеров и проводят атаки на инфраструктуру.
Сроки релиза Sora для широкой публики не называются. По оценкам Bloomberg, платформа может быть открыта уже будущим летом.