В США предложили легализовать взлом ИИ

leer en español

В США предложили легализовать взлом ИИ

Ученые борются за право исследовать душу ИИ без последствий.

image

Группа ученых и хакеров добивается разрешения на нарушение условий использования ИИ-компаний ради добросовестных исследований, выявляющих предвзятости, неточности и обучающие данные, без риска судебного преследования.

Правительство США рассматривает возможность внесения исключения в законодательство о защите авторских прав, что позволит обходить защитные меры в ИИ-системах. Это даст возможность исследовать работу ИИ, выявлять предвзятость, дискриминацию и неточные выводы, а также узнавать больше об обучающих данных. Исключение позволит проводить добросовестные исследования безопасности и академические исследования, даже если для этого потребуется обойти системы защиты.

Министерство юстиции США поддерживает предложение, утверждая, что добросовестные исследования могут выявить утечки данных и системы, чьи выводы небезопасны или неточны. Особенно важно это, когда ИИ используется для значимых целей, где ошибки могут причинить серьезный вред.

Большая часть того, что известно о работе закрытых ИИ-инструментов, таких как ChatGPT и Midjourney, стало известно благодаря исследователям, журналистам и пользователям, которые намеренно пытаются обмануть системы, чтобы узнать больше о данных, на которых нейросети обучены, их предвзятости и слабостях.

Однако такие исследования часто нарушают условия пользования. Например, условия использования OpenAI запрещают попытки реверс-инжиниринга или обнаружения исходного кода услуг, а также обход защитных мер.

Исследователи MIT, продвигающие предложение, отметили, что существует много опасений по поводу ИИ-моделей, их структуры, предвзятости и использования для дискриминации. Однако исследователи часто получают блокировки аккаунтов за добросовестные исследования или боятся юридических последствий. Такие условия тормозят исследования, а компании не всегда прозрачны в отношении их соблюдения.

Исключение будет касаться раздела 1201 Закона о защите авторских прав в цифровую эпоху (DMCA). Другие исключения из этого раздела уже позволяют взламывать устройства для ремонта и защищают исследователей безопасности, пытающихся найти баги и уязвимости, и в некоторых случаях защищают тех, кто пытается архивировать или сохранять определенные виды контента.

Существует множество примеров академических статей, журналистских расследований и исследовательских проектов, которые требуют взлома или обмана ИИ-инструментов для выявления обучающих данных, предвзятости или ненадежности.

Авторы предложения опубликовали анализ, в котором упоминаются предыдущие условия использования Midjourney, угрожающие взысканием убытков за нарушение интеллектуальной собственности. Исследователи утверждают, что ИИ-компании начали использовать свои условия для сдерживания анализа.

Многие исследования сосредоточены на попытках заставить ИИ воспроизводить защищенные авторским правом произведения, чтобы доказать, что модели обучены на таких материалах. Такая тактика использовалась музыкальной индустрией для доказательства, что инструменты ИИ Suno и Udio обучались на защищенной авторскими правам музыке, что стало центральным элементом судебного процесса против компаний. Можно представить сценарий, где исследователи используют ИИ для воспроизведения защищенных произведений, что приводит к негативным последствиям для ИИ-компании, которая обвиняет исследователя в нарушении условий использования.

Офис по авторским правам Харли Гейгер из Совета по политике в области хакерства отметил, что исключение критически важно для выявления и исправления ошибок алгоритмов. Отсутствие четкой правовой защиты в соответствии с разделом 1201 DMCA негативно сказывается на таких исследованиях. Исключение не остановит компании от попыток предотвратить подобные исследования, но юридически защитит исследователей, нарушающих условия использования ради проведения анализа.

На слушаниях этой весной Морган Рид из Ассоциации приложений, представляющей множество ИИ-компаний, утверждал, что исследователи должны получать предварительное согласие от ИИ-компаний на проведение анализа. Без уведомления специалист фактически считается потенциальным злонамеренным хакером. Рид подчеркнул, что исследователи хотят получить защиту от ответственности уже после факта.

Ассоциация по контролю за копированием DVD ( DVD Copy Control Association ), представляющая крупные киностудии и являющаяся одним из пионеров DRM, также выступает против предложенного исключения.

Невидимка в сети: научим вас исчезать из поля зрения хакеров.

Подпишитесь!