Цель такого ИИ – сделать статьи Википедии более точными.
Хотя люди по всему миру используют Википедию в качестве основного источника информации, как правило, нет возможности проверить, является ли контент на платформе правильным. Признанная в РФ экстремистской организацией компания Meta * стремится решить эту проблему с помощью нового ИИ, который будет проверять факты на страницах Википедии.
ИИ Meta* использует так называемые методы обработки естественного языка (NLU) для проверки цитат из Википедии.
"ИИ поможет выявить тарабарщину или утверждения, на которые не хватает ссылок и сможет определить, действительно ли источник подтверждает то или иное утверждение", – говорится в блоге Meta*.
Поскольку в Википедию ежемесячно добавляется более 17 000 новых статей, один человек чисто физически не сможет проверять источники в каждой из статей, ведь они ссылаются на десятки различных сайтов. Поэтому вместо человека проверкой достоверности источников будет заниматься ИИ от компании Meta*, сравнивающий цитаты со 134 миллионами веб-страниц в Sphere – онлайн-библиотеке с открытым исходным кодом.
Чтобы обучить ИИ, Meta* заявила, что “скормила” алгоритмам 4 миллиона статей из Википедии, научив их находить один источник из огромного количества веб-страниц для проверки подлинности каждого утверждения. Найдя источник, ИИ оценивает текст по частям и рассматривает наиболее подходящий отрывок, который пойдет в статью.
Стоит заметить, что проект находится на стадии разработки и пока не используется для корректировки статей Википедии.
* Признана экстремистской организацией и запрещена в РФ.
Ладно, не доказали. Но мы работаем над этим