Если вы или ваши близкие проводите время в социальных сетях, то довольно высока вероятность того, что вы увидите только рекомендованный алгоритмом контент. Платформы социальных сетей, такие как Facebook, Instagram и TikTok, предоставляют развлечения своим пользователям и стремятся заинтересовать свою аудиторию.
Они достигают этого с помощью разработанных ими сложных алгоритмов. Они могут рекомендовать контент, который пользователи хотят видеть, удерживая пользователей на платформе в течение длительного времени. Использование алгоритмов оказалось очень прибыльным методом для гигантов социальных сетей. Чем больше времени люди проводят на этих сайтах, тем больше рекламы они увидят, а значит, с большей вероятностью что-то купят.
Таким образом, несмотря на то, что многим людям нравится получать персонализированный контент, использование социальными сетями таких методов, которые удерживают аудиторию вовлеченной в течение длительного времени, также может вызывать тревогу. Например, если пользователям нравятся видео с кошками, то предложения с большим количеством видео с кошками могли бы понравиться многим пользователям. Однако привлекательный контент может вызывать привыкание и негативно влиять на людей, но соцсети мало что делают для его корректировки.
Например, пользователям Facebook настоятельно не рекомендуется просматривать контент в хронологическом немодерируемом порядке. Таким образом, даже если пользователи найдут способ добраться до кнопки «Самые последние», в которой будут перечислены сообщения в обратном хронологическом порядке, пользователи все равно увидят, что их лента новостей Facebook вернется в состояние, контролируемое алгоритмом, как только они закроют веб-сайт или закроют приложение.
Крупные технологические компании, как правило, пользуются преимуществами, предоставляемыми искусственным интеллектом – алгоритмы помогают им делать рекламодателей «счастливыми». Например, популярное среди детей приложение TikTok должно было напоминать пользователям о необходимости делать перерывы в использовании приложения. Социальная сеть, ориентированная на видео, даже наняла некоторых из своих ведущих создателей контента для создания сервиса, который просит пользователей TikTok делать перерывы. Опять же, это всего лишь капля в море, когда дело доходит до ограничения использования алгоритмов.
Многие считают, что алгоритмы иногда также являются основными движущими силами дезинформации. Предположим, вам понравился определенный тип контента. В этом случае алгоритм, скорее всего, предложит больше похожего контента, что иногда приводит пользователей к ситуации, когда все, что они видят, - это контент, который поддерживает их интерес, но также дезинформирует их. Несмотря на то, что компании, занимающиеся социальными сетями, пытаются бороться с дезинформацией, данная проблема до сих пор считается крайне актуальной.
Контент, модерируемый искусственным интеллектом, иногда привлекает внимание к вредной информации. Например, недавно на автостраде в Лос-Анджелесе был остановлен картинг. Этим транспортным средством управляли блогеры, которые создавали трюк для контента в социальных сетях. Информация, основанная на алгоритмах, может неосознанно побуждать других пользователей смотреть в социальных сетях видеоролики с опасным контентом, которые могут привести к серьезным последствиям в реальной жизни, травмам и даже смерти.
Высокотехнологичные методы привлечения пользователей также могут нанести ущерб демократии и иметь последствия, изменяющие жизнь. В прошлом году разоблачитель Google Зак Ворхис объяснил в интервью The Epoch Times, как Google «переписал свои новостные алгоритмы, чтобы специально преследовать Трампа». Как политически левая, так и правая аудитория иногда не может получать объективную и полную информацию просто потому, что их личные ленты новостей завалены новостями с соответственно либеральными или консервативными тематиками, предлагаемыми алгоритмами.
Например, в США законодатели пытаются принять соответствующие поправки в законы, которые заставили бы технологические компании разрешать пользователям доступ к версиям своих платформ, которые не сформированы алгоритмами. И ИТ-гиганты не очень довольны этим. Социальные сети – не единственные компании, которые используют такие алгоритмы для взаимодействия со своей аудиторией. Другие крупные технологические компании, такие как Amazon, Netflix, Spotify, Apple и Google, также сильно пострадают, если подобные поправки в законодательство будут приняты.
Обращаем внимание, что все материалы в этом блоге представляют личное мнение их авторов. Редакция SecurityLab.ru не несет ответственности за точность, полноту и достоверность опубликованных данных. Вся информация предоставлена «как есть» и может не соответствовать официальной позиции компании.