Patterns: Языковые модели варианта ChatGPT упрощают написание поддельных научных исследований

Продвинутые языковые нейросети типа ChatGPT способны помочь мошенникам написать фальшивые научные труды, выяснили ученые из США.

Продвинутые языковые нейросети типа ChatGPT способны помочь мошенникам написать фальшивые научные труды, выяснили ученые из США.

Исследователи показали возможность нейросети сгенерировать наукообразные, но полностью выдуманные тезисы. Мошенники могут воспользоваться ИИ для создания псевдонаучной работы с полностью сфабрикованными данными.

Статья от алгоритмов похожа на настоящую, материалы будут иметь несуществующих участников эксперимента и бессмысленные результаты. Исследователи провели аналог теста Тьюринга для написанных ботами статей, сравнив их с настоящими научными работами.

Стояла задача вычислить ложные тезисы из представленных работ, эксперты ошибочно идентифицировали 32% написанных ИИ тезисов, а также 14% написанных людьми. Сфабрикованные работы проверили через детекторы текстов, написанных ИИ. Этот этап ненастоящим исследованиям успешно пройти не удалось — их вычеслили.

Об исследовании ученых Университета штата Нью-Йорк, Университета медицинских наук Даунстейта, а также Нью-Йоркского медицинского центра Вейла Корнелла сообщает журнал Patterns.