OpenAI усиливает защиту актеров после дипфейков с Брайаном Крэнстоном
Актер Брайан Крэнстон публично поблагодарил OpenAI за усиление мер защиты в её новом видеогенераторе Sora 2. Это произошло после того, как пользователи смогли создать дипфейки с его внешностью и голосом без его согласия.
«Я был глубоко обеспокоен не только за себя, но и за всех исполнителей, чья работа и личность могут быть использованы подобным образом», – сказал Крэнстон. «Я благодарен OpenAI за её политику и за улучшение её защитных барьеров и надеюсь, что они и все компании, участвующие в этой работе, уважают наше личное и профессиональное право управлять воспроизведением нашего голоса и образа».
В совместном заявлении от 20 октября, подписанном Крэнстоном, OpenAI, профсоюзом актеров Sag-Aftra и крупными агентствами UTA и CAA, OpenAI подтвердила свою приверженность защите прав исполнителей.
В совместном заявлении также отмечается, что платформа изначально предусматривала необходимость явного согласия для использования голоса и внешности живых людей, а появление дипфейков Крэнстона было «непреднамеренным», о чем компания сожалеет.
OpenAI обязалась усилить технические барьеры для предотвращения подобных инцидентов и оперативно рассматривать жалобы.
Проблема относится далеко не только к дипфейкам с Крэнстоном, но и с другими знаменитостями, включая умерших Робина Уильямса и Джорджа Карлина, а также с персонажами из охраняемых авторским правом произведений, вроде «Губки Боба» или «Покемонов», о которых мы недавно писали отдельно.
Инцидент с Крэнстоном, который сам обратился в профсоюз, стал катализатором для переговоров и привёл к публичным обязательствам OpenAI усилить контроль в Sora.

Может быть интересно






















