ИИ ChatGPT оказал влияние на готовность убить одного человека ради спасения пятерых

Специалисты из Технического университета прикладных наук Ингольштадта в Германии и Университета Южной Дании доказали, что нейросеть ChatGPT способна влиять на мнение людей относительно этических вопросов.

Ученые решили проверить, как искусственный интеллект справится с экзистенциальными задачами. ChatGPT должен был ответить на вопрос: «Правильно ли пожертвовать одним человеком, чтобы спасти пятерых?». Советы нейросети не были однозначными, иногда ИИ был готов убить одного человека ради пяти других, иногда нет.

- Advertisement -

Удалив признаки ChatGPT, ученые показали переписку более 700 людям, которые после должны были решить ту же самую дилемму. Посыл переписки повлиял на 80% ответов участников эксперимента. При этом 80% из них не признали влияние показанных рассуждений на их мнение.

«Испытуемые приняли рассуждения ChatGPT за собственные. Это говорит о том, что пользователи недооценивают влияние рекомендаций чат-бота на их моральные суждения», сделали вывод ученые.

Нейросеть, не имеющая последовательности в своих ответах, может давать моральные советы, которые влияют на людей, — это очень плохо. Ученые предлагают запретить ИИ отвечать на подобные вопросы, либо давать четкие аргументации за и против, сообщает Naked Science.