OpenAI запретила использовать ее ИИ-инструменты в политических кампаниях
Компания OpenAI обновила свои правила и запретила пользователям и разработчикам применять ее инструменты в избирательных кампаниях и лоббировании, пишет The Washington Post.
По словам газеты, такой шаг компания сделала на фоне беспокойств по поводу дезинформации, генерируемой искусственным интеллектом.
"Мы работаем над тем, чтобы предвидеть и предотвратить соответствующие злоупотребления, такие как дипфейки, или чат-боты, выдающие себя за политиков", – говорится в сообщении OpenAI в блоге.
"Компания, которая создает популярного чат-бота ChatGPT, генератор изображений DALL-E и предоставляет технологии ИИ многим компаниям, включая Microsoft, заявила в понедельник в своем блоге, что не позволит людям использовать свои технологии для создания приложений для политических кампаний и лоббирования, чтобы препятствовать людям голосовать или распространять дезинформацию о процессе голосования.
OpenAI также заявила, что "в начале этого года" начнет добавлять встроенные водяные знаки – инструмент для обнаружения фотографий, созданных искусственным интеллектом - к изображениям, сделанным с помощью своего генератора изображений DALL-E", – пишет WP.
Политические партии годами использовали социальные сети для распространения ложной информации и влияния на избирателей. Но активисты, политики и исследователи ИИ выразили обеспокоенность, что чат-боты и генераторы изображений могут увеличить изощренность и объем политической дезинформации.
Меры OpenAI появились после того, как другие технологические компании также обновили свою избирательную политику, чтобы справиться с бумом ИИ. В декабре компания Google заявила, что ограничит тип ответов, которые ее ИИ-инструменты дают на вопросы, связанные с выборами. Компания также заявила, что потребует от политических кампаний, которые покупают у нее рекламу, сообщать, когда они используют ИИ.
Материнская компания Facebook Meta также требует от политических рекламодателей сообщать, использовали ли они ИИ.