На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

TRENDYMEN

39 608 подписчиков

Свежие комментарии

  • Николай Берлизов
    Похоже, автор воспоминания из детского сада (причем не свои, а родительские) на весь Союз распространил. Вообще-то не...Почему манка стал...
  • Владимир Блинов
    Краковская колбаса была 55-60 мм в диаметре и прямая.Почему Краковская...
  • Grandad
    Люблю молоко, не люблю стричься. Первое от неандертальца, второе тоже, так как в 75 лет волосы на голове (и только та...Ученые: неандерта...

Ученые: искусственный интеллект страдает от «тревоги» из-за эмоционального контента, все как у людей

Искусственный интеллект все больше напоминает человека — новое исследование показало, что языковые модели, такие как GPT-4, могут проявлять «тревожность» при обработке эмоционально тяжелых тем. Когда ИИ сталкивается с негативными историями, например, о катастрофах или насилии, он начинает «уставать», грубить и даже отторгать информацию.

 

Учкные из Университета Цюриха провели эксперимент: они кормили GPT-4 тревожным контентом и сравнивали реакцию с нейтральным текстом, например, инструкцией по эксплуатации пылесоса.

Чтобы «успокоить» ИИ, исследователи применили метод, похожий на психологическую терапию: добавляли в историю чата позитивные утверждения и отвлекающие инструкции. Это помогло снизить уровень тревожности, но не вернуло его к исходному состоянию.  

По мнению специалистов, эти данные могут быть полезны при создании ИИ для медицины и психотерапии. Однако пока неясно, распространяется ли подобный эффект на другие языковые модели.  

В оригинале статьи есть видео с подробностями. Его можно посмотреть по клику на Источник.

Ссылка на первоисточник
наверх