Модель за $600 генерировала оскорбительные тексты и дезинформацию.
Языковая модель Alpaca, основанная на системе Meta* LLaMA, была отключена исследователями из Стэнфордского университета из соображений безопасности и высокой стоимости.
Группа компьютерных ученых из Стэнфордского университета доработала LLaMA для разработки Alpaca — открытой модели с 7 млрд. параметров, создание которой обошлось менее чем в $600. Код модели был выпущен на прошлой неделе и привлек внимание разработчиков после того, как некоторым пользователям удалось запустить его на компьютерах Raspberry Pi и даже на смартфонах Google Pixel 6 .
Alpaca была обучена на 52 000 текстовых образцов, которые направляли модель в соответствии с конкретными инструкциями, чтобы она работала по подобию модели GPT-3 «text-davinci-003» от OpenAI.
Процесс создания Alpaca
Учёные создали демонстрации выполнения инструкций, опираясь на метод самообучения. Эксперты начали со 175 пар инструкций и вывода, написанных человеком. Затем «text-davinci-003» сгенерировал дополнительные инструкции, используя начальный набор в качестве контекстных примеров.
Исследователи улучшили метод самообучения, упростив конвейер генерации и значительно уменьшив стоимость. Результатом процесса генерации данных является 52 000 уникальных инструкций и соответствующих выходных данных, стоимость которых составляет менее $500 при использовании API OpenAI.
Получив набор данных, специалисты точно настроили модели LLaMA, используя структуру обучения Hugging Face. Hugging Face — это библиотека, которая предоставляет предварительно обученные языковые модели для выполнения задач нейролингвистического программирования (НЛП), таких как классификация текста, анализ настроений и многое другое. Другими словами, не нужно обучать модель с нуля. Достаточно просто загрузить предварительно обученную модель и настроить ее под конкретную задачу с помощью Hugging Face.
Для первоначального запуска тонкая настройка модели LLaMA 7B заняла 3 часа на 8 графических ускорителях NVIDIA A100 c 80 ГБ памяти, что стоит менее $100 у большинства поставщиков облачных вычислений. Эксперты отметили, что эффективность обучения может быть повышена для дальнейшего снижения затрат.
Однако веб-страница с демонстрацией Alpaca, которая позволяла любому взаимодействовать с моделью, была закрыта вскоре после ее запуска из-за проблем с безопасностью и роста затрат на размещение модели в Интернете.
«Первоначальная цель выпуска демоверсии состояла в том, чтобы распространить наше исследование в доступной форме. Мы считаем, что достигли этой цели, и, учитывая стоимость хостинга и неадекватность наших фильтров контента, мы решили отключить демоверсию», - заявил представитель Стэнфордского института искусственного интеллекта, ориентированного на человека.
Как и все другие языковые модели, Alpaca склонна генерировать дезинформацию (галлюцинации) и оскорбительные тексты. Исследователи отметили, что галлюцинации, вероятно, являются причиной отказа от Alpaca. В некоторых случаях модель не могла правильно вспомнить столицу Танзании и выдавала ложную техническую информацию.
Хотя веб-демонстрация была удалена, набор данных и код, описывающие точную настройку модели, остаются доступными на GitHub . Специалисты заявили, что планируют опубликовать подробности о «весе» модели.
Учёные сообщили, что Alpaca, вероятно, содержит много других ограничений, связанных как с базовой языковой моделью, так и с данными настройки инструкций. Однако, по словам экспертов, артефакт все равно будет полезен сообществу, поскольку он обеспечивает относительно легкую модель, которая служит основой для изучения важных недостатков ИИ.
«Мы призываем пользователей помогать нам выявлять новые типы сбоев, отмечая их в веб-демонстрации. В целом мы надеемся, что выпуск Alpaca может облегчить дальнейшие исследования моделей следования инструкциям и их соответствие человеческим ценностям», - заключили исследователи.
* Компания Meta и продукты компании (Instagram и Facebook) признаны экстремистскими организациями; их деятельность запрещена на территории РФ.
Ладно, не доказали. Но мы работаем над этим