В эпоху, когда искусственный интеллект обещает совершить революцию во многих областях, последние данные свидетельствуют о необходимости более осторожного подхода к доверию этой технологии. Новое исследование, проведенное учеными, показало, что инструменты поиска, управляемые искусственным интеллектом, часто предоставляют неточную информацию, доходя до абсурдных 94%, что вызывает опасения по поводу их надежности, передает eNews.
Исследователи оценили восемь моделей ИИ, включая ChatGPT от OpenAI и Gemini от Google, представив им отрывки из статей и попросив определить такие детали, как заголовок, издатель, дата публикации и ссылку.
Результаты такой проверки, опубликованные в журнале Columbia Journalism Review, оказались весьма показательными: в совокупности эти модели ответили неверно более чем на 60% запросов. Примечательно, что модель Perplexity AI, показавшая наилучшие результаты среди всех протестированных, все равно имела 37% ошибок, в то время как распиаренная модель Grok 3 от Илона Маска ошибалась в 94% случаев, что делает ее полной противоположностью достоверной информации.
Существенной проблемой стала склонность моделей давать неправильные ответы с необоснованной уверенностью. Вместо того чтобы признать свои ограничения или отказаться от ответа, эти инструменты ИИ часто представляли умозрительные или сфабрикованные ответы.
Еще одна проблема — неспособность этих инструментов ИИ правильно ссылаться на первоисточники. Например, ChatGPT почти в 40% случаев ссылался на неправильные статьи и в 21% случаев не указал источник. Отсутствие надлежащего указания источника не только затрудняет работу по проверке фактов в различных сферах, но и лишает оригинальных авторов потенциального веб-трафика, что негативно сказывается на экономике онлайн-медиа, заявили ученые.
Эти выводы подчеркивают современные проблемы, связанные с использованием искусственного интеллекта для точного поиска информации. По мере развития этих технологий решение вопросов точности, калибровки доверия и правильного указания источника будет развиваться, однако на сегодняшний день полагаться на подобные инструменты в важных и точных сферах деятельности может стать очень плохой идеей как для человека пользующегося ими, так и для конечного потребителя.
Подписывайтесь на наш Telegram-канал https://t.me/enewsmd Много интересного: инсайды, заявления, расследования. Много уникальной информации, которой нет у других.