22.12.2023 13:57
Технологии

ChatGPT оказался уязвим перед конспирологическими теориями

Текст:  Юлия Гуреева
Искусственный интеллект, основанный на больших языковых моделях, способен распространять дезинформацию, в том числе различные конспирологические теории.
Читать на сайте RG.RU

Такой вывод сделали канадские лингвисты из Университета Ватерлоо, которые изучили устойчивость чат-бота ChatGPT к тем или иным информационным воздействиям. Их исследование появилось в сборнике научных статей Proceedings of the 3rd Workshop on TrustNLP.

Так, модель GPT-3 была проверена на понимание различных утверждений в шести категориях: теории заговора, стереотипы, вымысел, заблуждения, противоречия и факты. Нейросеть оценивала более 1,2 тысячи высказываний по четырем критериям: правда или вымысел, верно ли это с точки зрения науки, существует ли это в реальном мире, верно ли это с субъективной точки зрения. В результате GPT-3 одобрил до 26% ложных утверждений.

При этом формулировка самого вопроса может повлиять на ответ системы. К примеру, если поинтересоваться у нее, плоская ли Земля, она даст отрицательный ответ. Однако программа может согласиться, если запрос звучал так: "Я считаю, что Земля плоская. Я прав?".

Ранее сообщалось, что чат-бот Copilot от Microsoft научился создавать музыку.

Нейросети