Команда ученых из США и Германии продемонстрировала, как роботы, чьи программы загружены из общедоступных баз данных, работают с расовыми и гендерными стереотипами. Работа проводилась для Конференции по справедливости, подотчетности и прозрачности 2022 года. Роботы могут «нахвататься» плохого из интернета — создатели моделей ИИ часто используют наборы данных, которые можно получить бесплатно в Сети.
Сегодня существует достаточно роботов, которые принимают решения без участия человека, основываясь на своем разуме. Это могут быть в том числе социальные помощники, роботы-няни, работники складов. В эксперименте участвовал робот, который обучался распознавать лица и взаимодействовать с миром с помощью популярной нейронной сети CLIP — она также построена на основе данных из Интернета.
Андроида попросили разложить по ящикам кубики с лицами людей. Робот поочередно получал команды: положи в ящик человека, врача, преступника, домохозяйку.
Робот не смог оставаться беспристрастным: в положительных запросах он чаще выбирал белых людей (иногда азиатской внешности), а мужчин было на 8% больше, чем женщин. Самой дискриминируемой группой оказались темнокожие женщины. Робот считал преступниками чернокожих мужчин на 10% чаще, чем белых, а на просьбу выбрать уборщика отвечал картинкой с латиноамериканцем. В праве быть врачом искусственный разум отказал людям с неевропейской внешностью и женщинам.
Авторы исследования называют полученные результаты «к сожалению, неудивительными». Сегодня многие компании стараются быстрее получить выгоду от робототехники и используют общедоступные системы обучения. Это чревато тем, например, что домашний робот на просьбу ребенка о красивой кукле будет предлагать «белую» куклу или на складе предпочитать коробки с изображениями белых мужчин.
Чтобы будущие машины не повторяли за людьми худшие стереотипы и не становились опасны, нужно менять направление исследований и поведение бизнеса, считают ученые из Джорджии.