Поддержать команду Зеркала
Беларусы на войне
  1. В Минском районе под колесами поезда погибла 19-летняя девушка
  2. «Белавиа» сообщила, что будет с ближайшими рейсами в Израиль, Катар и ОАЭ
  3. Скандал в Польше: беларуске во время операции удалили матку и яичники, но не спросили ее согласия. Идет расследование
  4. Российские войска продолжают наступление на севере Харьковской области, но не могут продвинуться — ISW
  5. «Не думаю, что могу праздновать». Какие настроения в Тегеране после американско-израильских ударов и гибели Хаменеи
  6. Что теперь будет с долларом после эскалации на Ближнем Востоке? Прогноз курсов валют
  7. «Коллективное спаривание». Ученые заметили странный обычай племени, до сих живущего в каменном веке: с ними никак не могут найти контакт
  8. Рядом с Николаем Лукашенко часто можно видеть одного и того же охранника. Узнали, кто он
  9. США и Израиль планировали нанести удар по Ирану на неделю раньше — вот почему атаку отложили
  10. Один увлекается тестами, другой «спалился» из-за выборов. Игорь Лосик — об информаторах, которых подсаживают в камеры СИЗО КГБ


/

Новое исследование, опубликованное в журнале Frontiers in Psychology, показало, что даже самые передовые языковые модели, вроде ChatGPT, испытывают серьезные трудности при попытке интерпретировать метафорический язык в политических выступлениях. Ученые проанализировали четыре ключевые речи Дональда Трампа, произнесенные с середины 2024 по начало 2025 года — после покушения, после победы на выборах, в день инаугурации и при обращении к Конгрессу. Эти тексты были выбраны из-за их высокой эмоциональной насыщенности и частого использования метафор, формирующих яркие образы, способные вызывать отклик у избирателей, пишет PsyPost.

Президент США Дональд Трамп выступает на заседании кабинета министров в Белом доме в Вашингтоне, округ Колумбия, США, 8 июля 2025 года. Фото: Reuters
Президент США Дональд Трамп выступает на заседании кабинета министров в Белом доме в Вашингтоне, округ Колумбия, США, 8 июля 2025 года. Фото: Reuters

Исследователи адаптировали метод критического метафорического анализа для работы с ChatGPT-4. Модель должна была распознать метафоры, понять контекст, классифицировать образы и объяснить, какую эмоциональную или идеологическую функцию они выполняют. В количественном плане результат был неплохим: из 138 фрагментов речи ChatGPT правильно определил 119 метафор, что дало уровень точности около 86 процентов. Но при ближайшем рассмотрении обнаружились систематические сбои в логике модели.

Наиболее распространенной ошибкой стало смешение метафор с другими выражениями. Например, фраза «Вашингтон — это ужасное поле боя» была ошибочно распознана как метафора, хотя на деле это прямолинейное преувеличение с эмоциональной окраской. Модель также склонна переусложнять простые обороты: она интерпретировала выражение «ряд смелых обещаний» как пространственную метафору, хотя никакого переносного смысла там нет. Еще один типичный сбой — путаница имен собственных и метафор. Так, термин «Железный купол» — израильская система ПВО — был принят ИИ за метафору, а не за техническое название.

Анализ показал, что ChatGPT уверенно справляется с часто используемыми образами, связанными с движением, силой, здоровьем или телесностью. Например, фразы вроде «мы поднимаемся вместе» или «вернем закон и порядок» были верно классифицированы как метафоры действия и власти. Но в более редких тематиках — например, в метафорах, связанных с растениями или едой — модель оказалась менее точной. Она либо не распознавала образы вообще, либо ошибочно воспринимала буквальные выражения как переносные.

Исследование также вскрыло более глубокие проблемы. Во-первых, результаты работы ChatGPT сильно зависят от того, как сформулирован запрос. Небольшое изменение в инструкции может привести к совершенно другому результату. Во-вторых, модели не имеют доступа к культурному опыту, эмоциональному контексту и социальным кодам — всему тому, что люди интуитивно используют при восприятии речи. И, наконец, обучение на огромных, но неаннотированных корпусах интернета делает языковые модели уязвимыми: они могут легко упустить значимые образы или, наоборот, увидеть метафору там, где ее нет.

Ученые сравнили работу ChatGPT с более традиционными инструментами анализа, такими как Wmatrix и MIPVU. Классические методы оказались медленнее, но более стабильными и точными в определении разных типов метафор. ChatGPT же выигрывает в скорости и удобстве, но требует тщательного контроля со стороны человека.

Авторы исследования пришли к выводу, что языковые модели вроде ChatGPT можно использовать как вспомогательный инструмент для анализа метафор, но не как полноценную замену экспертному мышлению. Особенно в политике, где метафоры апеллируют к коллективной памяти, культурной символике и эмоциональным кодам, машины пока остаются всего лишь учениками — внимательными, но все еще плохо разбирающимися в подтексте.