Поддержать команду Зеркала
Беларусы на войне
  1. «Строительство оказалось нерациональным». В минском метро объяснили, почему станции «Профсоюзная» не будет
  2. «Советский Союз — это фашистский застенок», — считал первый ректор БГУ. Рассказываем об этом смелом ученом, влюбившемся в Беларусь
  3. Почему Лукашенко так задели заправки? Кризис на АЗС однажды уже вызвал массовые протесты в Беларуси — вспоминаем, как это было
  4. Доллар готовится к быстрому рывку: какой курс будет в конце октября? Прогноз по валютам
  5. В ГАИ предложили ужесточить ответственность для некоторых водителей
  6. На фронте погиб воевавший на стороне России сын экс-кандидата в президенты Беларуси Дмитрия Усса — «Наша Ніва»
  7. Кремль усиливает пропаганду о «полном успехе» в Украине и готовит россиян к победе любой ценой — ISW
  8. «Это не та Беларусь, которая была до 2020 года. Совсем не та». Поговорили с дважды политзаключенным, который недавно уехал из страны
  9. В парламент поступил законопроект от Лукашенко. Документ подготовлен по итогам масштабной ревизии законодательства
  10. «Киберпартизаны» сообщили о новой масштабной утечке из КГБ. В базе — данные тысяч сотрудников и контактировавших с ведомством
  11. Полиция Таиланда установила личность пропавшей в Мьянме беларуски
  12. Подоходный налог для некоторых беларусов хотят поднять до 40%. Стали известны подробности возможного новшества
  13. «Главное — не шарахаться». Глава Нацбанка Головченко посоветовал пока придержать доллары, хоть раньше говорил избавляться от них
  14. «Дотошно досматривали и на разговор вызывали». На границе Беларуси продолжаются допросы с проверками телефонов


/

Три четверти участников теста Тьюринга с чат-ботом ChatGPT-4.5 приняли искусственный интеллект за человека, сообщает Analytics India Magazine со ссылкой на исследование ученых из Калифорнийского университета в Сан-Диего. Внимание на публикацию обратил «Холод».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Авторы исследования предлагали испытуемым разные модели ИИ с минимальной либо расширенной инструкцией по поведению во время эксперимента. Минимальная инструкция лишь сообщала нейросети, что она будет участвовать в тесте Тьюринга, и передавала техническую информацию. Расширенная инструкция Persona содержала описание личности, за которую чат-бот должен себя выдавать, список актуальных новостей и подсказки о том, как ведут переписку обычные люди.

Участники эксперимента приняли ChatGPT-4.5 с инструкцией Persona за человека в 73 процентах случаев, а без дополнительных указаний чат-бот «побеждал» в два раза реже. Модель от компании Meta Llama 3.1‑405B с такой же инструкцией успешно выдала себя за человека в 56 процентах диалогов, а без нее — в 38 процентах.

В прошлом году исследователи из этого университета провели тест Тьюринга с ChatGPT-4, сравнив его с версией 3.5. Более новая модель тогда сумела обмануть испытуемых в 67 процентах диалогов, а версия 3.5 — лишь в половине случаев.

Британский математик Алан Тьюринг 75 лет назад предложил тест для определения, можно ли считать искусственный интеллект разумным. В исходной версии теста испытуемый должен одновременно общаться с компьютером и человеком, а после этого ответить, кто из собеседников — настоящий человек.