Поддержать команду Зеркала
Беларусы на войне
  1. Почему Лукашенко так задели заправки? Кризис на АЗС однажды уже вызвал массовые протесты в Беларуси — вспоминаем, как это было
  2. «Строительство оказалось нерациональным». В минском метро объяснили, почему станции «Профсоюзная» не будет
  3. В парламент поступил законопроект от Лукашенко. Документ подготовлен по итогам масштабной ревизии законодательства
  4. На фронте погиб воевавший на стороне России сын экс-кандидата в президенты Беларуси Дмитрия Усса — «Наша Ніва»
  5. Полиция Таиланда установила личность пропавшей в Мьянме беларуски
  6. «Это не та Беларусь, которая была до 2020 года. Совсем не та». Поговорили с дважды политзаключенным, который недавно уехал из страны
  7. Литва временно закрыла оба пункта пропуска на границе с Беларусью
  8. Подоходный налог для некоторых беларусов хотят поднять до 40%. Стали известны подробности возможного новшества
  9. «Советский Союз — это фашистский застенок», — считал первый ректор БГУ. Рассказываем об этом смелом ученом, влюбившемся в Беларусь
  10. «Дотошно досматривали и на разговор вызывали». На границе Беларуси продолжаются допросы с проверками телефонов
  11. «Киберпартизаны» сообщили о новой масштабной утечке из КГБ. В базе — данные тысяч сотрудников и контактировавших с ведомством
  12. Кремль усиливает пропаганду о «полном успехе» в Украине и готовит россиян к победе любой ценой — ISW
  13. В ГАИ предложили ужесточить ответственность для некоторых водителей
  14. Для этих работников несколько лет назад ввели ужесточения, им тогда припомнили в том числе политику. Чиновники снова взялись за них


/

Google удалил из своих принципов работы с искусственным интеллектом пункт, в котором компания обещала не участвовать в создании технологий, способных нанести вред людям, в том числе в военных целях. На это обратило внимание агентство Bloomberg.

Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com
Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com

Со страницы целиком исчез раздел под заголовком «Применение [ИИ], которым мы не будем заниматься». Судя по копиям страницы в веб-архиве, в конце января этот раздел еще присутствовал на ней. Он содержал четыре пункта:

  • технологии, которые в целом наносят или могут нанести вред (только если польза от них значительно не перевешивает риски);
  • оружие или другие технологии, предназначенные для причинения вреда человеку напрямую или косвенно;
  • технологии слежки, нарушающие международные нормы;
  • технологии, цели которых противоречат международным правовым принципам.

Страница в ее нынешнем виде вообще не содержит упоминаний об обязательствах отказаться от применения ИИ в опасных и неэтичных технологиях, включая оружейные.

В ответ на запрос журналистов прокомментировать произошедшие изменения представитель Google отправил запись в блоге компании, которая была опубликована 4 февраля. В ней говорится об итогах работы в 2024 году и ближайших планах корпорации относительно искусственного интеллекта.

Как рассказали в блоге старший вице-президент Google Джеймс Манийка и глава лаборатории искусственного интеллекта DeepMind Демис Хассабис, правительства и компании должны работать вместе над созданием искусственного интеллекта, который будет защищать людей, способствовать глобальному развитию и поддерживать нацбезопасность.

Одна из бывших руководителей исследовательской группы Google по этике искусственного интеллекта Маргарет Митчелл сказала Bloomberg, что подобное изменение принципов работы корпорации с ИИ будет иметь серьезные последствия: «Удаление этого пункта <…> означает, что Google теперь, вероятно, будет работать над внедрением технологий, которые смогут убивать людей».

Изменение политики Google в сфере разработки искусственного интеллекта совпадает с общей тенденцией среди крупных игроков на рынке, отметило Bloomberg. В частности, в январе Meta и Amazon расформировали часть своих программ по обеспечению разнообразия и инклюзивности.