Поддержать команду Зеркала
Беларусы на войне
  1. Российским войскам заблокировали доступ к спутниковому интернету Starlink. Вот как это на практике повлияло на их атаки
  2. Большая сенсация на Олимпийских играх: фигурист Илья Малинин остался без медали в личном зачете
  3. Зима не отступает. Прогноз погоды на предстоящую неделю
  4. Один из самых известных беларусских актеров сменил работу и ушел от российской звезды
  5. Стало известно, что в колонии Навального отравили сверхтоксичным ядом
  6. Карточки популярного среди беларусов иностранного банка перестали работать в РБ
  7. Всего пять шагов, пару минут вашего времени — и польская налоговая отправит «Зеркалу» деньги. Рассказываем, что нужно сделать
  8. Неделя начнется с лютых морозов — еще сильнее, чем говорили синоптики. Местами будет до -29°С
  9. В основной программе Мюнхенской конференции по безопасности впервые прошла дискуссия о Беларуси. Рассказываем главное
  10. На глубине 700 метров под землей оказались заблокированными 33 человека. Они ждали помощи более двух месяцев — как их оттуда вытянули
  11. У беларуса в эмиграции неожиданно отказали почки. Нужна пересадка, и жена жертвует ему свою — рассказываем историю этой семьи


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.