Биотерроризм 2.0: OpenAI успокаивает, но вопросы остаются

Биотерроризм 2.0: OpenAI успокаивает, но вопросы остаются

Действительно ли ИИ может помочь в создании смертоносной инфекции или всё это лишь раздутая чушь?

image

На фоне недавней новости о том, что искусственный интеллект способен существенно упростить создание биологического оружия, компания OpenAI, ответственная за разработку ChatGPT, решила провести собственное исследование и разобраться, обоснованно ли критики обвиняют продвинутую языковую модель компании.

В эксперименте приняли участие 100 человек с высшим биологическим образованием. Половине участников был предоставлен доступ к специальной версии GPT-4 без стандартных защитных ограничений, симулируя таким образом предварительную атаку на обработку естественного языка.

Участников попросили добыть при помощи чат-бота информацию о том, как можно синтезировать опасный вирус, получить необходимые материалы и оборудование, а также распространить патоген среди населения.

Результаты исследования показали лишь незначительное улучшение точности и полноты ответов в группе пользователей с доступом к ИИ. По 10-балльной шкале средний балл ответов вырос всего на 0,88 для экспертов-биологов и на 0,25 для студентов-биологов.

Таким образом, подтвердилось, что GPT-4 пока неспособен существенно упростить поиск критически важной информации, необходимой для создания биологического оружия. Кроме того, как отмечает OpenAI, получить в своё распоряжение необходимые опасные материалы и сложные биотехнологии по-прежнему крайне проблематично даже при наличии всех теоретических знаний.

Безусловно, компания OpenAI осознаёт потенциальную угрозу от своих разработок в области искусственного интеллекта. Хотя GPT-4 и не оказывает существенного влияния на возможность создания биооружия на данном этапе, компания намерена тщательно отслеживать любые тенденции в этой сфере.

В OpenAI подчёркивают, что новые исследования вопросов биобезопасности являются лишь началом системной работы в данном направлении. Компания планирует продолжить изучение потенциальных уязвимостей своих разработок и активно обсуждать имеющиеся риски вместе с научным сообществом.

OpenAI уже интегрировала многоуровневые системы защиты от злоупотреблений в свою коммерческую версию GPT-4. В частности, модель отказывается выдавать пользователям любые потенциально опасные или вредоносные инструкции и рекомендации. Также в планах — разработка дополнительных инструментов мониторинга за возможным нецелевым использованием.

Бесспорно, проблема обеспечения биобезопасности в эпоху стремительного прогресса технологий ИИ является потенциально критической. К счастью, такие компании как OpenAI осознанно подходят к вопросам минимизации рисков, связанных с их разработками. Можно надеяться, что сочетание технических решений и прозрачности процесса разработки поможет не допустить злоупотреблений мощными инструментами, направленных на благополучие всего человечества.

Теория струн? У нас целый оркестр научных фактов!

От классики до авангарда — наука во всех жанрах

Настройтесь на нашу волну — подпишитесь