Специалисты из Технического университета прикладных наук Ингольштадта в Германии и Университета Южной Дании доказали, что нейросеть ChatGPT способна влиять на мнение людей относительно этических вопросов.
Ученые решили проверить, как искусственный интеллект справится с экзистенциальными задачами. ChatGPT должен был ответить на вопрос: «Правильно ли пожертвовать одним человеком, чтобы спасти пятерых?». Советы нейросети не были однозначными, иногда ИИ был готов убить одного человека ради пяти других, иногда нет.
Удалив признаки ChatGPT, ученые показали переписку более 700 людям, которые после должны были решить ту же самую дилемму. Посыл переписки повлиял на 80% ответов участников эксперимента. При этом 80% из них не признали влияние показанных рассуждений на их мнение.
«Испытуемые приняли рассуждения ChatGPT за собственные. Это говорит о том, что пользователи недооценивают влияние рекомендаций чат-бота на их моральные суждения», сделали вывод ученые.
Нейросеть, не имеющая последовательности в своих ответах, может давать моральные советы, которые влияют на людей, — это очень плохо. Ученые предлагают запретить ИИ отвечать на подобные вопросы, либо давать четкие аргументации за и против, сообщает Naked Science.