Поддержать команду Зеркала
Беларусы на войне
  1. Почему Лукашенко так задели заправки? Кризис на АЗС однажды уже вызвал массовые протесты в Беларуси — вспоминаем, как это было
  2. «Строительство оказалось нерациональным». В минском метро объяснили, почему станции «Профсоюзная» не будет
  3. В парламент поступил законопроект от Лукашенко. Документ подготовлен по итогам масштабной ревизии законодательства
  4. На фронте погиб воевавший на стороне России сын экс-кандидата в президенты Беларуси Дмитрия Усса — «Наша Ніва»
  5. Полиция Таиланда установила личность пропавшей в Мьянме беларуски
  6. «Это не та Беларусь, которая была до 2020 года. Совсем не та». Поговорили с дважды политзаключенным, который недавно уехал из страны
  7. Литва временно закрыла оба пункта пропуска на границе с Беларусью
  8. Подоходный налог для некоторых беларусов хотят поднять до 40%. Стали известны подробности возможного новшества
  9. «Советский Союз — это фашистский застенок», — считал первый ректор БГУ. Рассказываем об этом смелом ученом, влюбившемся в Беларусь
  10. «Дотошно досматривали и на разговор вызывали». На границе Беларуси продолжаются допросы с проверками телефонов
  11. «Киберпартизаны» сообщили о новой масштабной утечке из КГБ. В базе — данные тысяч сотрудников и контактировавших с ведомством
  12. Кремль усиливает пропаганду о «полном успехе» в Украине и готовит россиян к победе любой ценой — ISW
  13. В ГАИ предложили ужесточить ответственность для некоторых водителей
  14. Для этих работников несколько лет назад ввели ужесточения, им тогда припомнили в том числе политику. Чиновники снова взялись за них


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.