https://glas.ru/news/20230316/279735/
Patterns: подобные ChatGPT языковые модели упрощают создание фальшивых научных исследований
Patterns: подобные ChatGPT языковые модели упрощают создание фальшивых научных исследований | 16.03.2023 | ГЛАС.RU
Patterns: подобные ChatGPT языковые модели упрощают создание фальшивых научных исследований
16 марта - ГЛАС. Значение новейших технологий, подобные ChatGPT, сложно переоценить, но теперь учёные определили одну потенциальную и очень серьёзную проблему
20230316T0838
20231114T1648
/html/head/meta[@name='og:title']/@content
/html/head/meta[@name='og:description']/@content
https://glas.ru/news/assets/none-img.jpg
16 марта - ГЛАС. Значение новейших технологий, подобные ChatGPT, сложно переоценить, но теперь учёные определили одну потенциальную и очень серьёзную проблему Так, например, учёные из Университета штата Нью-Йорк, Университета медицинских наук Даунстейта, а также Нью-Йоркского медицинского центра Вейла Корнелла смогли подтвердить, что подобные ChatGPT языковые модели способны помогать мошенникам в создании ненастоящих научных работ. О своих выводах специалисты сообщают в новом выпуске специализированного журнала Patterns.В качестве примера была представлена качественно написанная научная работа, в которой были сформулированы внешне правдивые, но полностью выдуманные тезисы. Если бы такую фальшивую работу приняли к публикации, ChatGPT можно было бы использовать для создания внешне реалистичной работы, которая бы абсолютно не имела смысла.Опаснее всего то, что при проведении исследователями так называемого аналога теста Тьюринга, люди примерно в 32% случаев ошибочно идентифицировали тезисы из исследований, как созданные реальным человеком, а не искусственным интеллектом (ИИ). А ещё 14% принимали за написанные ИИ, хотя они принадлежали людям.Ранее ГЛАС сообщал: в Университете Осаки создали нейросеть Stable Diffusion для чтения мыслей человека.
Россия
ГЛАС.RU
s.sha39@yandex.ru
127
72
127
72
Алексей Гречишкин
Новости
ru-RU
ГЛАС.RU
s.sha39@yandex.ru
127
72
730
365
true

Patterns: подобные ChatGPT языковые модели упрощают создание фальшивых научных исследований

Языковые модели типа ChatGPT облегчают создание поддельных научных исследований
Алексей Гречишкин
автор статьи
16 марта - ГЛАС. Значение новейших технологий, подобные ChatGPT, сложно переоценить, но теперь учёные определили одну потенциальную и очень серьёзную проблему

Так, например, учёные из Университета штата Нью-Йорк, Университета медицинских наук Даунстейта, а также Нью-Йоркского медицинского центра Вейла Корнелла смогли подтвердить, что подобные ChatGPT языковые модели способны помогать мошенникам в создании ненастоящих научных работ. О своих выводах специалисты сообщают в новом выпуске специализированного журнала Patterns.

В качестве примера была представлена качественно написанная научная работа, в которой были сформулированы внешне правдивые, но полностью выдуманные тезисы. Если бы такую фальшивую работу приняли к публикации, ChatGPT можно было бы использовать для создания внешне реалистичной работы, которая бы абсолютно не имела смысла.

Опаснее всего то, что при проведении исследователями так называемого аналога теста Тьюринга, люди примерно в 32% случаев ошибочно идентифицировали тезисы из исследований, как созданные реальным человеком, а не искусственным интеллектом (ИИ). А ещё 14% принимали за написанные ИИ, хотя они принадлежали людям.

Ранее ГЛАС сообщал: в Университете Осаки создали нейросеть Stable Diffusion для чтения мыслей человека.