Patterns: подобные ChatGPT языковые модели упрощают создание фальшивых научных исследований

Так, например, учёные из Университета штата Нью-Йорк, Университета медицинских наук Даунстейта, а также Нью-Йоркского медицинского центра Вейла Корнелла смогли подтвердить, что подобные ChatGPT языковые модели способны помогать мошенникам в создании ненастоящих научных работ. О своих выводах специалисты сообщают в новом выпуске специализированного журнала Patterns.
В качестве примера была представлена качественно написанная научная работа, в которой были сформулированы внешне правдивые, но полностью выдуманные тезисы. Если бы такую фальшивую работу приняли к публикации, ChatGPT можно было бы использовать для создания внешне реалистичной работы, которая бы абсолютно не имела смысла.

Опаснее всего то, что при проведении исследователями так называемого аналога теста Тьюринга, люди примерно в 32% случаев ошибочно идентифицировали тезисы из исследований, как созданные реальным человеком, а не искусственным интеллектом (ИИ). А ещё 14% принимали за написанные ИИ, хотя они принадлежали людям.
Ранее ГЛАС сообщал: в Университете Осаки создали нейросеть Stable Diffusion для чтения мыслей человека.