Эксперты выяснили, что ошибки в программном обеспечении роботов при их обучении на базах данных людей негативно формируют их характер.
Оказалось, что искусственный интеллект хочет больше дружить с парнями, а не с девушками. Темнокожие люди его пугают, а белых он одобряет.
Все это произошло из-за того, что роботов обучали на открытых базах данных из интернета, где миллионы людей оставляли свое мнение по разным вопросам.
«Робот усвоил токсичные стереотипы с помощью этих ошибочных моделей нейронных сетей. Мы рискуем создать поколение расистских и сексистских роботов, но люди и организации решили, что можно создавать эти продукты, не решая проблем», — сказал автор Эндрю Хундт, научный сотрудник Технологического института Джорджии, в стенах которого проводилось исследование на эту тему.
Ранее МедиаПоток сообщал о том, как разработчики из Китайской народной республики научили собственного робота плаванию.