Слепая вера ИИ превратила адвокатов в обвиняемых.
Суд округа Вайоминг потребовал объяснений от группы адвокатов, которые представили суду фальшивые судебные прецеденты. Выяснилось, что юристы использовали искусственный интеллект для подготовки документов, но система сгенерировала несуществующие дела.
Иск против Walmart и Jetson Electronic Bikes, Inc. был подан еще в 2023 году. Истцы — семья из шести человек — утверждают, что аккумулятор литий-ионного гироборда, приобретенного в Walmart, загорелся ночью, уничтожил дом и нанес тяжелые увечья. В январе 2024 года адвокаты подали ходатайство об исключении ряда доказательств ( motion in limine ), сославшись на 8 судебных решений, которые, как оказалось, никогда не существовали.
Судья отметил, что указанные дела не обнаруживаются в базе Westlaw и не числятся в электронной системе судов Вайоминга, а также потребовал от адвокатов объяснить, как возникли данные ссылки. Юристы быстро признали ошибку и заявили , что «их внутренняя платформа ИИ галлюцинировала и “сфантазировала” дела, когда помогала юристу в составлении ходатайства». Адвокаты добавили, что этот случай вызвал дискуссии о контроле и использовании ИИ в их фирме.
Подобные случаи уже происходили ранее. В 2023 году адвокаты истца по делу против авиакомпании Avianca сослались на несуществующие прецеденты , созданные ChatGPT. Когда суд выявил подлог, юристы не признали ошибку сразу, а продолжали отстаивать фиктивные цитаты, за что были оштрафованы на $5000.
А в 2024 году адвокат Майкл Коэн предоставил ложные ссылки на дела, полученные от чат-бота Gemini. Хотя наказания в данном случае не последовало, судья назвал ситуацию «нелепой и постыдной».
Использование искусственного интеллекта в юридической сфере продолжает набирать обороты, но подобные инциденты показывают, что без должного контроля технологии могут привести к серьезным последствиям, вплоть до санкций и дисквалификации юристов.
Спойлер: мы раскрываем их любимые трюки