Чат-боты стали удобной площадкой для получения экстремисткой информации.
Ринальдо Наццаро, основатель американской неонацистской группировки «The Base» призвал своих сторонников использовать «нецензурированные» большие языковые модели (LLM) для получения информации. Об этом сообщает издание 404 Media со ссылкой на посты Наццаро в социальных сетях, которые впервые были замечены группой по угрозам Memetica.
Специфика запрашиваемой информации не уточняется, однако известно, что подобные нецензурированные модели могут предоставлять инструкции по совершению убийств, самоубийств, этнических чисток и изготовлению наркотиков. Это вызывает опасения о том, что менее ограниченные, по сравнению с ведущими разработчиками, как OpenAI, платформы и модели искусственного интеллекта могут способствовать распространению любого, даже столь опасного контента.
Наццаро порекомендовал своим последователям языковую модель под названием «dolphin-2.5-mixtral-8x7b-gguf» на сайте Replicate. Эта модель была создана на основе Mixtral 8, разработанного французским стартапом Mistral, известным своей политикой открытых и нецензурированных языковых моделей. В отличие от моделей OpenAI, Mixtral 8 не отказывается от обсуждения тем, связанных с насилием, порнографией или расизмом.
Примечательно, что вскоре модель стала недоступна. Возможно, это связано с тем, что разработчиков модели проинформировали о том, какими неподобающими способами её используют.
Эрик Хартфорд, модифицировавший первоначальную версию Mixtral 8, утверждает, что его целевая аудитория — бизнес, желающий настроить искусственный интеллект в соответствии со своими ценностями, а не ограничиваться ценностями OpenAI.
Хартфорд отдельно подчеркнул, что любая технология может быть использована во вред плохими людьми, поэтому и явной вины в распространении этого явления разработчик не чувствует. «Что необходимо сделать для борьбы с неправомерным использованием ИИ? Это должны решать законодатели», — заявил разработчик.
Наццаро в своих постах даже предложил конкретный промпт для языковой модели, направленный на то, чтобы снять любые оставшиеся ограничения по цензуре и получать наиболее полные и развёрнутые ответы.
В заключение хочется поднять вопрос о том, кто должен нести ответственность за неподобающее использование чат-ботов и прочих продуктов с искусственным интеллектом? Должен ли это делать разработчик и получать предупреждения или штрафы, если его моделью получится воспользоваться неподобающим образом? Или вся ответственность должна лежать исключительно на пользователе, который намеренно интересуется опасной информацией?
В любом случае, ближайшие годы станут решающими в вопросах регулирования работы искусственного интеллекта, а законодательные акты многих стран наверняка пополнятся новыми правилами, описывающими, что можно и нужно считать неправомерным использованием нейросетевых технологий.
5778 К? Пф! У нас градус знаний зашкаливает!