Паранойя или реальная угроза? Узнайте, как новый инструмент BLOC поможет распознавать ботов и манипуляции в соцсетях.
Недобросовестные действия в интернете наносят огромный ущерб, оцененный в 2019 году в $78 миллиардов. Однако специалисты в области данных активно работают над решением этой проблемы. Александр Нвала, доцент по данным науке из Уильям и Мэри, в сотрудничестве с коллегами из Индианского университета недавно опубликовал статью в EPJ Data Science. В ней представлен BLOC — универсальная языковая модель для анализа поведения в социальных сетях.
BLOC, что расшифровывается как "Behavioral Languages for Online Characterization", использует два типа "алфавитов" для характеристики действий пользователя: один для действий, другой для содержания. С помощью этих "алфавитов" можно создать строчные коды, которые затем преобразуются в векторы. Эти векторы анализируются с помощью алгоритмов машинного обучения, что позволяет выявить потенциально вредоносные действия.
Проект не только упрощает обнаружение автоматических ботов, но и помогает идентифицировать сходства между учетными записями, управляемыми человеком. "Если две учетные записи делают почти одно и то же, можно исследовать их поведение с использованием BLOC, чтобы узнать, контролируются ли они одним и тем же лицом", — сказал Нвала.
В университете Уильям и Мэри уже разрабатывается инструмент на основе BLOC для исследователей, журналистов и широкой публики, который будет анализировать подозрительную активность в социальных сетях.
Исследование в этой области осложняется ограничениями, которые социальные сети накладывают на использование программных интерфейсов. Нвала подчеркивает, что такие ограничения вредят не только исследователям, но и обществу в целом, так как подобные исследования помогают выявить манипуляции в социальных сетях и формировать эффективную политику в этой области.
Ладно, не доказали. Но мы работаем над этим