Конец эры безнаказанности: опасные алгоритмы ставят под удар будущее соцсетей

Конец эры безнаказанности: опасные алгоритмы ставят под удар будущее соцсетей

TikTok и другие платформы могут столкнуться с миллионами исков.

image

Федеральный апелляционный суд США принял решение, которое может серьезно повлиять на бизнес-модели крупных технологических компаний. Третий окружной апелляционный суд постановил, что платформы социальных медиа могут нести ответственность за контент, рекомендуемый их алгоритмами.

Решение было вынесено по делу о трагической смерти 10-летней девочки Нилы Андерсон, которая погибла, пытаясь повторить опасный «челлендж», увиденный в TikTok. Мать девочки подала иск против компании, утверждая, что алгоритм специально рекомендовал ребенку опасный контент, зная о потенциальной угрозе.

Ранее подобные иски отклонялись на основании раздела 230 Закона о добропорядочности в коммуникациях. Закон, принятый в 1996 году, защищал интернет-платформы от ответственности за контент, публикуемый пользователями. Однако суд постановил, что когда платформа активно рекомендует контент через свои алгоритмы, она больше не может считаться нейтральным посредником и должна нести ответственность за свои действия.

Судья Пол Мэтей отметил, что TikTok использует раздел 230 для защиты от любой ответственности, что можно расценить как безразличие к последствиям, даже таким трагическим, как смерть 10-летней девочки.

Решение суда может иметь значительные последствия для индустрии социальных медиа. Потенциально это открывает путь для множества исков против технологических гигантов, которые ранее были защищены от подобных претензий благодаря разделу 230.

Эксперты считают решение суда переломным моментом. Зефир Тичаут, правовед, назвал его «действительно существенным и важным». Политический консультант, работающий в этой сфере более десяти лет, охарактеризовал его как «ОГРОМНОЕ».

Суд опирается на недавнее постановление Верховного суда США по делу Moody vs NetChoice . В этом деле суд указал, что алгоритмы, включающие элементы редакторского контроля или модерации контента, могут быть защищены Первой поправкой как форма речи. Третий окружной суд использовал эту логику, чтобы аргументировать, что если алгоритмы платформ считаются их собственной речью, компании должны нести за неё ответственность. Однако теперь, когда такие алгоритмы рассматриваются как собственная «выразительная деятельность» платформы, компании могут быть привлечены к ответственности за их использование.

Это решение может привести к серьезным изменениям в работе социальных сетей и других онлайн-платформ. Компании, возможно, придется пересмотреть свои алгоритмы рекомендаций и усилить модерацию контента, чтобы избежать потенциальных судебных исков.

Ожидается, что данное решение будет обжаловано и, вероятно, дойдет до Верховного суда США. Тем временем юристы и правоведы уже начали анализировать возможные последствия для будущего интернета и технологической индустрии.

Важно отметить, что вопросы регулирования крупных технологических компаний не всегда соответствуют партийным линиям. Как в Верховном суде, так и в нижестоящих судах, судьи, назначенные как демократами, так и республиканцами, часто находят общий язык по этим вопросам. Решение подтверждает, что разделение происходит скорее по линии популистских и анти-популистских взглядов, а не по партийной принадлежности.

Решение Третьего окружного суда может стать катализатором для пересмотра раздела 230 на законодательном уровне. Ожидается, что технологические компании начнут активную лоббистскую кампанию за реформирование этого закона, чтобы сохранить свою защиту от судебных исков.

Приватность — это право, а не роскошь.

Подпишитесь на наш канал и защитите свои права