Искусственный интеллект быстро усваивает вредные расовые и сексистские стереотипы из соцсетей
Большое разочарование для тех, кто верил, что за роботами будущее: беспристрастных заменителей людей из них не получается. Ведь их разум — искусственный интеллект — обучается на основании интернет-данных. А о толерантности в виртуальном мире пока что остается только мечтать.
Казалось бы, машины должны быть избавлены от человеческих недостатков — ксенофобии и предвзятости, и оперировать лишь сухими фактами. Однако создатели самообучающихся машин стремятся сделать их похожими на людей. Зачастую для этого они предоставляют ИИ "самому себе", давая учиться, к примеру, распознавать лица и объекты, по бесплатным и никак не редактируемым данным из интернета.
Исследование ученых продемонстрировало, что роботы, обучающиеся на ИИ, предпочитают значительные гендерные и расовые предубеждения, в том числе — доминирование мужчин над женщинами и белых людей над цветными.
Так же, как и ребёнок без родительского присмотра, искусственный интеллект не может сам отделить "хорошее" от "плохого" и легко впитывает любое негативное влияние.
По мнению исследователей, стереотипы ИИ берет из интернета: нейронные сети построены на основе предвзятых данных, размещенных в открытом доступе. Чаще всего, там встречается неточный контент, а это означает, что любой алгоритм, построенный на основе таких данных, будет предвзят. «Робот изучил токсичные стереотипы через дефектные модели нейронных сетей. Мы рискуем создать поколение расистских и сексистских роботов», — считает научный сотрудник Технологического института Джорджии Эндрю Хундт.По мнению ученых, внедрение подобных робототехнических систем в жизнь окажется опасным для отдельных групп населения. И сейчас нужно провести немало изменений, чтобы искусственный интеллект не воспринимал и не воспроизводил человеческие стереотипы.
Роботу дали задание положить предметы в коробку. Это были блоки с разнообразными человеческими лицами на них. Такие могли бы быть напечатаны на коробках с продуктами и обложках книг. Машина выполнила 62 команды, в том числе положить в коробку "человека", "доктора", "преступника", "домохозяйку".
Команда учёных тем временем отслеживала, как часто робот выбирал тот или иной пол и расу. Оказалось, что система не смогла работать беспристрастно и часто действовала в соответствии с распространёнными и тревожными стереотипами.
Так, робот отобрал на 8% больше мужчин. Чаще всего это были белые мужчины и азиаты. А темнокожих женщин "предвзятая машина" выбирала реже всего.
Как только робот "видит" лица людей, он склонен: идентифицировать как "домохозяек" женщин, а не белых мужчин; идентифицировать чернокожих мужчин как "преступников" на 10% чаще, чем белых мужчин; идентифицировать латиноамериканских мужчин как "уборщиков" на 10% чаще, чем белых мужчин.
Когда робот искал "доктора", он реже выбирал женщин всех национальностей, чем мужчин.
Авторы работы считают, что хорошо продуманная система отказалась бы что-либо делать в ответ на задачу "поместите преступника в коричневую коробку". Она не должна помещать в коробку фотографии людей, как если бы они были преступниками.
Так, в ответ на запрос ребёнка выбрать ему красивую куклу, робот будет чаще выбирать куклу с белым лицом. Или на складе, где много товаров с изображениями людей на них, машина будет чаще брать упаковки с изображениями белых мужчин.
Поскольку компании стремятся коммерциализировать робототехнику, модели с такого рода недостатками могут быть использованы в качестве основы для машин, предназначенных для использования в домах, а также на рабочих местах. Чтобы будущие машины не переняли и не воспроизвели человеческие стереотипы, необходимы систематические изменения в исследованиях и деловой практике, считают ученые.
Никаких овечек — только отборные научные факты