Байден создает секретный альянс по безопасности ИИ: кто в нем и зачем?

Байден создает секретный альянс по безопасности ИИ: кто в нем и зачем?

Более 200 лидеров отрасли создадут новые правила жизни в мире ИИ-моделей.

image

Администрация Байдена объявила о создании Консорциума Института безопасности искусственного интеллекта США ( AI Safety Institute Consortium, AISIC ), первого в своем роде объединения, посвященного безопасности ИИ. Такой шаг последовал за назначением директора нового Института безопасности ИИ США ( AI Safety Institute, USAISI ) при институте NIST.

Консорциум AISIC объединяет более 200 компаний и организаций, включая крупнейшие технологические фирмы, такие как Google, Microsoft и Amazon, ведущие компании в области разработки крупных языковых моделей, такие как OpenAI, Cohere и Anthropic, а также исследовательские лаборатории, гражданские и академические группы, местные и государственные органы власти и некоммерческие организации.

Согласно сообщению в блоге NIST, AISIC станет самым крупным собранием команд по тестированию и оценке и будет способствовать разработке основ для новой измерительной науки в области безопасности ИИ. Консорциум будет работать под эгидой USAISI и внесет вклад в приоритетные действия, описанные в исполнительном указе США, включая разработку руководств по проведению тестирования на проникновение, оценку возможностей, управление рисками, безопасность и защиту, а также водяные знаки для сгенерированного контента.

Разработка консорциума была объявлена 31 октября 2023 года. Участие в консорциуме открыто для всех заинтересованных организаций, способных внести свой вклад своим опытом, продуктами, данными и/или моделями в деятельность консорциума. Выбранные участники Консорциума обязаны уплатить ежегодный взнос в размере $1000.

По данным NIST, члены Консорциума будут способствовать реализации следующих принципов:

  • Разрабатывать новые руководящие принципы, инструменты, методы, протоколы и лучшие практики, чтобы способствовать развитию отраслевых стандартов для разработки или внедрения ИИ безопасными, надежными и заслуживающими доверия способами;
  • Разрабатывать рекомендации и критерии для выявления и оценки возможностей ИИ, уделяя особое внимание возможностям, которые потенциально могут нанести вред;
  • Разработать подходы по внедрению практик безопасной разработки для генеративного ИИ, включая особые соображения для базовых моделей двойного назначения, в том числе;
    • Руководство, связанное с оценкой и управлением безопасностью, защищенностью и надежностью моделей, а также с машинным обучением, обеспечивающим сохранение конфиденциальности;
    • Руководство по обеспечению доступности тестовых сред;
  • Разрабатывать и обеспечивать доступность тестовых сред;
  • Разрабатывать рекомендации, методы, навыки и практики для успешного объединения в красные команды (Red Team) и машинного обучения с сохранением конфиденциальности;
  • Разрабатывать руководство и инструменты для аутентификации цифрового контента;
  • Разрабатывать рекомендации и критерии для навыков сотрудников в области ИИ, включая выявление и управление рисками, тестирование, оценку, валидацию и верификацию (TEVV), а также экспертные знания в конкретной области;
  • Изучать сложности на стыке общества и технологий, включая науку о том, как люди понимают и взаимодействуют с ИИ в различных контекстах;
  • Разрабатывать руководство для понимания и управления взаимозависимостями между участниками ИИ на протяжении всего жизненного цикла.

Несмотря на объявление о создании Института безопасности ИИ и сопутствующего Консорциума в ноябре, до сих пор остается мало информации о том, как будет функционировать институт и откуда будут поступать средства на его финансирование, особенно учитывая, что сам NIST сам испытывает нехватку финансирования.

Стоит отметить, что в январе двухпартийная группа сенаторов обратилась к Сенату с просьбой о выделении $10 млн. на помощь в создании USAISI. Однако пока не ясно, на каком этапе находится запрос на финансирование. Кроме того, Палата представителей также направила в NIST письмо, в котором раскритиковала агентство за отсутствие прозрачности и за неспособность объявить конкурсный процесс для запланированных научных грантов, связанных с USAISI.

Мы клонировали интересный контент!

Никаких овечек — только отборные научные факты

Размножьте знания — подпишитесь