Университет Хопкинса: недочеты нейросети делают роботов сексистами и расистами

Исследование ученых из Университета имени Джона Хопкинса показало, что обучение ботов, основанное на данных из открытых источников, совращает их натуру в худшую сторону людей.

Исследование ученых из Университета имени Джона Хопкинса показало, что обучение ботов, основанное на данных из открытых источников, совращает их натуру в худшую сторону людей.

Такие выводы подтвердили и коллеги научных сотрудников из Вашингтонского университета и Технологического института Джорджии.

Для теста стереотипов у роботов провели один необычный эксперимент. Искусственный интеллект должен был выбрать характеристику человека по изображению.

В это время специалисты наблюдали за тем, как робот реагировал на пол и расу человека с картинки. Оказалось, что все очень плохо, ведь выбор ему помогала делать база данных со мнениями реальных людей.

Таким образом, чернокожих на фото роботы на 10% чаще нарекали «преступниками», чем белокожих. Латиноамериканцев они принимали за уборщиков, а врачами в абсолютном большинстве раз были мужчины.

Теперь научное сообщество опасается учить андроидов на базах данных от людей, иначе появление Бендера из Футурамы будет только вопросом времени.

Ранее МедиаПоток сообщал о том, кто умеет слышать голоса мертвых людей, не включая Ретро FM.

Источник Городэй