Поддержать команду Зеркала
Беларусы на войне
  1. В Гомельской области БПЛА повредил дом, пострадала женщина — она в больнице
  2. Семья Вани Стеценко из Гродно, деньги на лечение которого собирали со скандалом, «оставила все и улетела» из Дубая в Беларусь
  3. «Обнаглели!» Беларуска перестала ходить в «Евроопт» — и вот почему
  4. «Отравление всех без разбора, и детей, и взрослых». Химик прокомментировал идею Лукашенко удобрять поля солью
  5. Магазины предупреждают о скорой пропаже из продажи западного пива — что происходит
  6. По водительским удостоверениям собираются ввести изменения
  7. «Даже детей дергают». Силовики «трясут» семью беларуса из-за лайка, поставленного десять лет назад
  8. Представительница официальной делегации Беларуси в ООН вырвала из рук бывшей узницы фотографии беларусских политзаключенных
  9. «Я в шоке». В Threads рассказали о варианте подработки: одни удивляются расценкам, а другие — тем, что за это вообще платят
  10. Лукашенко: Глава Минприроды Беларуси попался на взятке и находится в СИЗО
  11. Пропагандисты снова недовольны некоторыми беларусами. Предательство и «шваль» им видятся в жителях целого столичного микрорайона
  12. У беларусов все чаще находят рак. Узнали из непубличного доклада, где больше всего запущенных случаев
  13. Суд в Гааге займется Лукашенко. Разбираемся с юристкой, чем ему это грозит
  14. «Вопросов куча». Лукашенко — о переговорах с США


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.