Science: нейросети способны распространять негативные стереотипы о людях

Ученые из Школы компьютерных наук и статистики Тринити обнаружили, что нейросети могут распространять предубеждения и негативные стереотипы.

Ученые из Школы компьютерных наук и статистики Тринити обнаружили, что нейросети могут распространять предубеждения и негативные стереотипы.

Результаты научной работы были опубликованы в журнале Science. По мнению ученых, такой эффект случился из-за того, что ИИ подобно людям собирает данные для генерации информации в Сети, повторяя стереотипы, предубеждения и фейки, принимая их за правду.

Опасность такой информации заключается в том, что она не строится на возможных догадках, а выдает уверенные ответы. Это может обернуться тем, что понимание человека будет искажено под влиянием предоставленной от нейросетей информации и мы будем воспринимать суждении ИИ как заведомо правильные и не нуждающиеся в проверке.

Например, на основе данных о том, что афроамериканцы являются наиболее неблагонадежными гражданами, ИИ будет уверенно утверждать, что они с большей вероятностью совершат повторное преступление. Такое суждение является ничем иным, как проявлением расизма.

«Исследования и последующие вмешательства будут наиболее эффективно сосредоточены на воздействии на маргинализированные группы населения, на которые непропорционально сильно влияют как вымыслы, так и негативные стереотипы в результатах моделирования», — рассказала профессор Абеба Бирхане из Школы компьютерных наук и статистики Тринити.

В связи с этим ученые призывают психологов и экспертов по машинному обучению объединиться и усилить свою работу в области анализа воздействия ИИ на восприятие человека, пишет InScience.