OpenAI, Alphabet та інші провідні розробники ШІ зобовʼязалися підвищити безпеку технології
Провідні компанії, що займаються штучним інтелектом, включаючи OpenAI, Alphabet та Meta Platforms, взяли на себе добровільні зобовʼязання у сфері безпеки ШІ, йдеться у заяві розробника ChatGPT. Цей процес, координований Білим домом, має стати важливим кроком на шляху до ефективного управління ШІ як у США, так і в усьому світі.
До компаній також входять Anthropic, Inflection, Amazon.com та Microsoft, вони зобовʼязалися ретельно тестувати системи перед їх випуском.
Згідно із повідомленням, компанії продовжать тестувати та вдосконалювати конкретні методи управління. Компанії продовжать інвестувати в дослідження в областях, які можуть допомогти у регулюванні, таких як методи оцінки потенційно небезпечних можливостей у моделях ШІ.
Компанії взяли на себе список добровільних зобовʼязань, який також опублікований Білим домом.
Ці добровільні зобовʼязання відповідають існуючим законам та нормативним актам.
Компанії припускають, що ці добровільні зобовʼязання залишаться чинними доти, доки не набудуть чинності положення, що регулюють ті самі питання. Окремі компанії можуть брати на себе додаткові зобовʼязання, крім перерахованих.
Компанії зобовʼязалися:
- бути відданими і обʼєднаними у виявленні загроз моделей, включаючи неправомірне використання, соціальні ризики та проблеми національної безпеки;
- працювати над обміном інформацією між компаніями та урядами про ризики довіри та безпеки, небезпечні або виникаючі можливості та спроби обійти заходи безпеки;
- інвестувати в кібербезпеку та захист від загроз;
- хабезпечити стороннє виявлення та повідомлення про проблеми та вразливості;
- розробити та впровадити механізми, що дозволяють користувачам зрозуміти, чи створено аудіо- або візуальний контент за допомогою ШІ, включаючи надійне походження, водяні знаки або те й інше для аудіо- або візуального контенту, згенерованого ШІ;
- публічно повідомляти про можливості моделі чи системи, обмеження та області належного та неналежного використання, включаючи обговорення соціальних ризиків, таких як вплив на справедливість та упередженість;
- приділити пріоритетну увагу дослідженням соціальних ризиків, повʼязаних із системами ШІ;
- розробити та впровадити передові системи штучного інтелекту, щоб допомогти вирішити найбільші проблеми суспільства.
Випуск ChatGPT започаткував гонку серед технологічних компаній, таких як Google і Microsoft, за створення аналогічних технологій. У середині березня компанія OpenAI презентувала четверту версію мовної моделі ChatGPT.
Після цього понад 1000 технологічних лідерів і дослідників підписали відкритий лист із закликом ввести шестимісячний мораторій на розробку нових систем, оскільки технології ШІ становлять "серйозні ризики для суспільства та людства". За кілька днів 19 нинішніх і колишніх лідерів Асоціації з розвитку штучного інтелекту, академічного товариства з 40-річною історією, випустили власний лист із попередженням про ризики, повʼязані зі ШІ.
Нещодавно 350 технічних керівників і вчених, які займаються ШІ, забили на сполох щодо технології, наголосивши у спільній заяві, що вона є таким самим великим ризиком, як пандемія та ядерна війна. Серед підписантів заяви – Сем Альтман, гендиректор OpenAI.4
4 травня керівники Google, Microsoft, OpenAI та Anthropic зустрілися з віцепрезиденткою США Камалою Харріс та вищими посадовими особами адміністрації, щоб обговорити ключові аспекти штучного інтелекту (ШІ). СЕО та співзасновник OpenAI Сем Альтман запропонував законодавцям США розглянути питання про видачу компаніям ліцензій на розробку потужного штучного інтелекту, подібного до того, що лежить в основі чат-бота його компанії.
У червні Генеральний секретар ООН Антоніу Гутерріш підтримав пропозицію деяких розробників штучного інтелекту про створення міжнародного органу спостереження за ШІ, такого як Міжнародне агентство з атомної енергії (МАГАТЕ).