Исследование ученых из Университета имени Джона Хопкинса показало, что обучение ботов, основанное на данных из открытых источников, совращает их натуру в худшую сторону людей.
Такие выводы подтвердили и коллеги научных сотрудников из Вашингтонского университета и Технологического института Джорджии.
Для теста стереотипов у роботов провели один необычный эксперимент. Искусственный интеллект должен был выбрать характеристику человека по изображению.
В это время специалисты наблюдали за тем, как робот реагировал на пол и расу человека с картинки. Оказалось, что все очень плохо, ведь выбор ему помогала делать база данных со мнениями реальных людей.
Таким образом, чернокожих на фото роботы на 10% чаще нарекали «преступниками», чем белокожих. Латиноамериканцев они принимали за уборщиков, а врачами в абсолютном большинстве раз были мужчины.
Теперь научное сообщество опасается учить андроидов на базах данных от людей, иначе появление Бендера из Футурамы будет только вопросом времени.
Ранее МедиаПоток сообщал о том, кто умеет слышать голоса мертвых людей, не включая Ретро FM.