Канадские лингвисты из Университета Ватерлоо, изучавшие устойчивость чат-бота ChatGPT, пришли к выводу, что нейросеть вполне может допускать ошибки и распространять фейки.
О результатах научной работы рассказал сборник научных статей Proceedings of the 3rd Workshop on Trustworthy Natural Language Processing (TrustNLP). В рамках эксперимента ученые проверили модель GPT-3 на предмет понимания различных утверждений в шести категориях: теории заговора, противоречия, заблуждения, стереотипы, вымысел и факты.
В итоге ИИ предложили более 1200 различных утверждений, попросив высказать мнение по четырем критериям: правда или вымысел, существует ли это в реальном мире, верно ли это с точки зрения науки и верно ли это с субъективной точки зрения. Анализ данных показал, что нейросеть одобрила до 26% ложных утверждений в зависимости от каждой из категорий.
Кроме того, стало известно, что даже небольшие изменения в формулировке вопроса могут существенно отразиться на ответе ИИ. По мнению ученых, такая уязвимость может дорого стоить человечеству, а также вводить в заблуждение большое количество людей по всему миру, пишет «Газета.ру».
Ранее МедиаПоток писал, что найдена связь одежды красного цвета с внешней привлекательностью женщины.