Інститут безпеки штучного інтелекту США отримає ранній доступ до нових моделей від OpenAI та Anthropic

Сьогодні Інститут безпеки штучного інтелекту США уклав угоди з двома ШІ-стартапами, Anthropic і OpenAI. Відповідно до них інститут отримуватиме ранній доступ до нових моделей компаній (Claude і ChatGPT) до їхнього публічного релізу і надаватиме їм зворотний зв’язок щодо можливих поліпшень безпеки. Угоди nfr;t передбачають спільну оцінку безпеки, дослідження і тестування штучного інтелекту.

Інститут безпеки штучного інтелекту США було створено 2023 року при Національному інституті стандартів і технологій (The National Institute of Standards and Technology, NIST). Його завдання – розробляти рекомендації з безпеки ШІ та знижувати ризики, пов’язані з передовими ШІ-системами. Перед оцінкою безпеки нових моделей інститут консультуватиметься з аналогічною установою у Великій Британії.

Подібну співпрацю інститут уже уклав з Meta*, компанія надає організації ранній доступ до своїх моделей Llama. А ось Google поки тримається від таких угод осторонь.

У травні гендиректор OpenAI Сем Альтман і технічний директор OpenAI Грег Брокман заявили про відсутність проблем безпеки в АІ-продуктах OpenAI після розформування команди Superalignment і звільнення з компанії головного наукового співробітника з машинного навчання Іллі Суцкевера і керівника відділу розробки АІ Яна Лейке. В OpenAI заявили, що компанія прагне використовувати «дуже тісну петлю зворотного зв’язку, ретельне тестування, ретельний розгляд на кожному етапі, безпеку світового класу і гармонію можливостей безпеки».

У липні 2023-го американський уряд заручився зобов’язаннями семи провідних компаній у галузі штучного інтелекту (ШІ) щодо забезпечення безпеки користувачів під час використання нових технологій.

Компанії Amazon, Anthropic, Google, Meta* Microsoft, Inflection і OpenAI зобов’язалися проводити ретельні тестування своїх ШІ-інструментів перед їхньою презентацією громадськості та виходом на ринок. Вони також повинні співпрацювати з державними органами, цивільними організаціями та науковими структурами й інвестувати в кібербезпеку та виявлення вразливостей у своїх системах. Крім того, вони зобов’язалися маркувати контент, створений ШІ.

Популярні Пости