Поддержать команду Зеркала
Беларусы на войне
  1. Состоялась первая двусторонняя встреча Владимира Зеленского и Светланы Тихановской
  2. «Надоели пляски на костях моего отца». Дочь умершего в Белостоке активиста Владимира Уссера ответила пропаганде
  3. Военные блогеры все чаще отвергают альтернативную реальность на поле боя, которую рисуют Путин и военное командование РФ — ISW
  4. «30 Гб — это на выходные чисто фильмы посмотреть?» Беларусы возмутились ограничением безлимитного мобильного интернета
  5. Пропагандист объяснил, почему Лукашенко поднял по тревоге мехбригаду на Витебщине в обход Генштаба — чтобы не было как в Венесуэле
  6. «Абсолютно все равно, что меня забрасывают помидорами». Большое интервью Марии Колесниковой Марине Золотовой
  7. Лукашенко заставил его уехать из страны, а потом силовики добивались возвращения. История самого богатого беларусского вора в законе
  8. «Это не про политику». Посмотрели, что думают беларусы о большом интервью Колесниковой и ее идее «возвращения к нормальности»
  9. Экс-спикерка КС Анжелика Мельникова пропала 10 месяцев назад: что известно (и чего мы до сих пор не знаем) о ее исчезновении
  10. В пункте пропуска на литовско-беларусской границе приостановили оформление грузовиков
  11. Появилось еще одно подтверждение того, что Тихановская переезжает из Вильнюса
  12. «Пока что белому шпицу Лукашенко оставлено больше прав, чем народу Беларуси». Зеленский выступил с яркой речью в Вильнюсе
  13. Детей «тунеядцев» могут поставить в СОП. В милиции назвали условие


Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, профессор компьютерных наук Стюарт Рассел и еще около тысячи экспертов из сферы ИИ призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества. Об этом они заявили в открытом письме, которое опубликовано на сайте организации Future of Life Institute.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

В письме говорится, что системы ИИ с человеко-конкурентным интеллектом могут нести серьезные риски для общества и человечества. В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.

В письме также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.