Сьогодні Інститут безпеки штучного інтелекту США уклав угоди з двома ШІ-стартапами, Anthropic і OpenAI. Відповідно до них інститут отримуватиме ранній доступ до нових моделей компаній (Claude і ChatGPT) до їхнього публічного релізу і надаватиме їм зворотний зв’язок щодо можливих поліпшень безпеки. Угоди nfr;t передбачають спільну оцінку безпеки, дослідження і тестування штучного інтелекту.
Інститут безпеки штучного інтелекту США було створено 2023 року при Національному інституті стандартів і технологій (The National Institute of Standards and Technology, NIST). Його завдання – розробляти рекомендації з безпеки ШІ та знижувати ризики, пов’язані з передовими ШІ-системами. Перед оцінкою безпеки нових моделей інститут консультуватиметься з аналогічною установою у Великій Британії.
Подібну співпрацю інститут уже уклав з Meta*, компанія надає організації ранній доступ до своїх моделей Llama. А ось Google поки тримається від таких угод осторонь.
We’re really grateful to Jan for everything he's done for OpenAI, and we know he'll continue to contribute to the mission from outside. In light of the questions his departure has raised, we wanted to explain a bit about how we think about our overall strategy.
— Greg Brockman (@gdb) May 18, 2024
First, we have… https://t.co/djlcqEiLLN
У травні гендиректор OpenAI Сем Альтман і технічний директор OpenAI Грег Брокман заявили про відсутність проблем безпеки в АІ-продуктах OpenAI після розформування команди Superalignment і звільнення з компанії головного наукового співробітника з машинного навчання Іллі Суцкевера і керівника відділу розробки АІ Яна Лейке. В OpenAI заявили, що компанія прагне використовувати «дуже тісну петлю зворотного зв’язку, ретельне тестування, ретельний розгляд на кожному етапі, безпеку світового класу і гармонію можливостей безпеки».
У липні 2023-го американський уряд заручився зобов’язаннями семи провідних компаній у галузі штучного інтелекту (ШІ) щодо забезпечення безпеки користувачів під час використання нових технологій.
Компанії Amazon, Anthropic, Google, Meta* Microsoft, Inflection і OpenAI зобов’язалися проводити ретельні тестування своїх ШІ-інструментів перед їхньою презентацією громадськості та виходом на ринок. Вони також повинні співпрацювати з державними органами, цивільними організаціями та науковими структурами й інвестувати в кібербезпеку та виявлення вразливостей у своїх системах. Крім того, вони зобов’язалися маркувати контент, створений ШІ.