Ілон Маск з еспертами в галузі ШІ закликають поставити на паузу системи потужніші за OpenAI GPT-4
Ілон Маск і група експертів зі штучного інтелекту та керівників галузі закликають до шестимісячної паузи в розробці систем, потужніших за нещодавно запущену OpenAI GPT-4 через потенційні ризики для суспільства, повідомляє Reuters.
Раніше цього місяця компанія OpenAI, яка підтримується Microsoft, представила четверту ітерацію своєї програми GPT (Generative Pre-trained Transformer), яка вразила користувачів.
"Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики – керованими", – йдеться в листі, який опублікував Future of Life Institute (некомерційна організація, яка працює над зменшенням глобальних катастрофічних та екзистенціальних ризиків, з якими стикається людство).
Відповідно до реєстру прозорості Європейського Союзу, некомерційна організація в основному фінансується Фондом Маска, а також лондонською групою Founders Pledge і Silicon Valley Community Foundation.
У Future of Life Institute закликають всі лабораторії з розробки штучного інтелекту негайно призупинити принаймні на 6 місяців навчання потужніших за GPT-4 систем.
Зазначається, що Лабораторії штучного інтелекту та незалежні експерти повинні використати цю паузу, щоб спільно розробити та впровадити набір спільних протоколів безпеки для вдосконаленого проектування та розробки штучного інтелекту, які ретельно перевіряються та контролюються незалежними сторонніми експертами.
"Це не означає призупинення розвитку штучного інтелекту в цілому, а просто відхід від небезпечної гонки до все більших і непередбачуваних моделей чорного ящика з надзвичайними можливостями", – йдеться у листі.