Поддержать команду Зеркала
Беларусы на войне
  1. Сын важного беларусского чиновника стал вором в законе: пытал жертв утюгом и контролировал русскую мафию в США. Вот его история
  2. Магазины предупреждают о скорой пропаже из продажи западного пива — что происходит
  3. «Обнаглели!» Беларуска перестала ходить в «Евроопт» — и вот почему
  4. У беларусов все чаще находят рак. Узнали из непубличного доклада, где больше всего запущенных случаев
  5. Нашелся беларус, который за год заработал «существенно больше» 10 млн рублей. Где он взял такую сумму
  6. Санаторий, куда Азаренок «отправлял» беларусов и беларусок вместо Дубая, обещает людям то, что невозможно. Вот чем заманивает здравница
  7. У беларусов спросили, какой зарплаты хватило бы для комфортной жизни. Какими были ответы и какова реальность (разбежка приличная)
  8. Лукашенко: Глава Минприроды Беларуси попался на взятке и находится в СИЗО
  9. По водительским удостоверениям собираются ввести изменения
  10. Пропагандисты снова недовольны некоторыми беларусами. Предательство и «шваль» им видятся в жителях целого столичного микрорайона
  11. Помните трагедию в Ельске, где 14-летняя девочка впала в кому и умерла? Похоже, ей дали тот же антибиотик, что и роженице в Дзержинске
  12. Уехавшая беларуска публиковала в YouTube лекции о Второй мировой войне. Против нее возбудили дело за реабилитацию нацизма
  13. «Даже детей дергают». Силовики «трясут» семью беларуса из-за лайка, поставленного десять лет назад
  14. Беларус купил жене место у иллюминатора в самолете «Белавиа», а ее все равно посадили «на проход». Комментарий авиакомпании


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.