Поддержать команду Зеркала
Беларусы на войне
  1. Скандал в Польше: беларуске во время операции удалили матку и яичники, но не спросили ее согласия. Идет расследование
  2. «Белавиа» сообщила, что будет с ближайшими рейсами в Израиль, Катар и ОАЭ
  3. Один увлекается тестами, другой «спалился» из-за выборов. Игорь Лосик — об информаторах, которых подсаживают в камеры СИЗО КГБ
  4. Что теперь будет с долларом после эскалации на Ближнем Востоке? Прогноз курсов валют
  5. Поляков спросили, какая соседняя страна вызывает у них наибольшую симпатию. Вот что они думают о Беларуси
  6. «Коллективное спаривание». Ученые заметили странный обычай племени, до сих живущего в каменном веке: с ними никак не могут найти контакт
  7. Рядом с Николаем Лукашенко часто можно видеть одного и того же охранника. Узнали, кто он
  8. После энергетики — логистика: Россия меняет тактику ударов по Украине — ISW
  9. В Минском районе под колесами поезда погибла 19-летняя девушка
  10. США и Израиль планировали нанести удар по Ирану на неделю раньше — вот почему атаку отложили
  11. Кто такие аятоллы? Объясняем, почему они главные в Иране и кто может быть следующим
  12. «Не думаю, что могу праздновать». Какие настроения в Тегеране после американско-израильских ударов и гибели Хаменеи
  13. Рублю прогнозировали непростое начало 2026 года. Тем временем в обменниках сложилась весьма нетипичная ситуация


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.