Исследователи из Токийского университета (Япония) выявили сходство в поведении больших языковых моделей (LLM) типа ChatGPT компании OpenAI и людей, страдающих афазией, сообщает eNews.
Известно, что чат-боты довольно часто предоставляют на запросы пользователей выдуманную, то есть ложную информацию, но делают это очень уверенно. Эта проблема напоминает симптомы расстройства, известного как афазия, при котором люди могут говорить бегло, но не всегда понимают, о чем вещают. Расстройство возникает при органических поражениях речевых отделов коры головного мозга, пишет Naked Science.
Специалисты задались вопросом, могут ли алгоритмы систем ИИ работать схожим образом с механизмами человеческого мозга, пораженного афазией. Чтобы проверить эту гипотезу, ученые изучили закономерности активности мозга в состоянии покоя у людей с различными типами афазии и сравнили их с внутренними данными нескольких общедоступных чат-ботов. В результате обнаружили сходства в изучаемых процессах.
Ученые отметили, что полученные данные предлагают возможный новый способ классификации и мониторинга таких состояний, как афазия, на основе внутренней активности мозга, а не только внешних симптомов. Для ИИ это может привести к лучшим диагностическим инструментам, которые помогут инженерам улучшить архитектуру систем изнутри.
Подписывайтесь на наш Telegram-канал https://t.me/enewsmd Много интересного: инсайды, заявления, расследования. Много уникальной информации, которой нет у других.