Поддержать команду Зеркала
Беларусы на войне
  1. «Я расстроился, что он не убежал». Поговорили с беларусом, который встретил ягуара в джунглях и стал звездой Бразилии
  2. Путин подписал закон, который позволит привлекать к военной службе без объявления мобилизации. Два пункта в нем засекречены
  3. Чиновники хотят ввести изменения, которые затронут тех, кто ходит в секонд-хенды и покупает мясо, молоко, яйца, хлеб, макароны и сахар
  4. Ведущая ОНТ нашла отличное объяснение для фотографий с отдыха в Европе. Но не учла детали
  5. На трассе М1 открыли самый длинный участок контроля средней скорости
  6. Многодетной маме, которая вынужденно живет в Польше, силовики заблокировали карту, куда шли алименты. Вот что говорят чиновники
  7. Телефонные мошенники придумали способ проще и быстрее обманывать людей — какая просьба должна насторожить
  8. Лукашенко заявил, что даже если в Украине установится мир, то «нам от этого легче не станет»
  9. Налоговики выпустили предупреждение для сдающих в аренду недвижимость. Для них собираются ввести изменения
  10. Секс, насилие, унижение. Рассказываем, как на самом деле жили женщины в партизанских отрядах Беларуси во время войны
  11. Власти бросились устранять дефицит кадров. Эксперт: решение на поверхности — при чем тут увольнения из-за политики, аресты и «тунеядцы»
  12. В БелЖД заметили странные перестановки среди управленцев — с этим может быть связано КГБ
  13. «Мы сами со всем разберемся». Тихановская прокомментировала скандал вокруг мужа и его возможный отъезд в Америку
  14. Налоговики обратились к владельцам недвижимости и транспорта — есть риск попасть на «административку», если проигнорировать
  15. «Три человека давно не были в РБ — допросы». Как проходят «беседы» на границе Беларуси с Евросоюзом в декабре
  16. «Беларусбанк» ввел изменения по карточкам — они касаются фактически всех клиентов, у которых есть «пластик»
  17. В 2020-м «непростой» иностранец хвалил Лукашенко и говорил, что «никто не украдет» его имущество в Беларуси. Реальность оказалась иной
  18. Пилот «Белавиа» ответил Лукашенко, который заявил, что метеозонды не представляют проблем для авиации
  19. Почему Лукашенко стал открыто шантажировать Литву? Спросили у эксперта


Евросоюз первым в мире принимает закон, который будет регулировать развитие систем искусственного интеллекта (ИИ) и защищать от них граждан. В среду, 14 июня, за законопроект проголосовал Европарламент. Это не конец процесса: три ветви власти ЕС — Комиссия, Парламент и Совет — должны будут согласовать окончательный вариант закона, его вступление в силу ожидается не ранее 2025 года, пишет Русская служба Би-би-си.

Фото: Reuters
Фото: Reuters

В законе системы ИИ разделены на группы по степеням риска, который они несут для европейских граждан и потребителей, и для каждой группы введены свои ограничения и меры контроля.

Совсем запрещены будут, например, системы, созданные для того, чтобы влиять на подсознание людей, а также системы биометрического распознавания, работающие в режиме реального времени.

Системы, создающие контент — такие, как ChatGPT — должны будут, в частности, четко маркировать свою продукцию и не выдавать ее за творчество живых людей.

«Депутаты Европарламента хотят гарантировать, чтобы системы ИИ контролировались людьми, были безопасны, прозрачны, отслеживаемы, не дискриминировали пользователей и способствовали защите окружающей среды», — объясняла пресс-служба Европарламента в мае, по ходу подготовки законопроекта.

В дебатах, которые прошли 13 июня, депутаты Европарламента больше всего внимания обратили на пункты о системах распознавания лиц. В проекте предлагается разрешить применение таких систем только «постфактум» (а не в режиме реального времени), только для поиска преступников, террористов и пропавших людей и только по решению суда.

Уверенное большинство евродепутатов — за такое решение, но небольшое меньшинство призывает совсем запретить системы распознавания лиц.

От этого меньшинства в дебатах выступил, в частности, Патрик Брайер — единственный в Европарламенте представитель Пиратской партии Германии.

«Мы открываем ящик Пандоры, мы создаем тотальное полицейское государство, как в Китае», — заявил Брайер (цитата по синхронному переводу).

Фото: Reuters
Левые, зеленые и «пираты» в Европарламенте говорят, что даже сильно ограниченное применение систем распознавания лиц с ИИ ведет к произволу спецслужб и попранию прав граждан, как в Китае. Фото: Reuters

Немецкий «пират» заявил, что системы распознавания лиц ошибаются в 99% случаев, и это ведет к задержаниям невиновных людей.

«Требование о санкции суда, предложенное жесткими консерваторами — это чистая формальность, дымовая завеса для прикрытия массовой слежки <…> Нельзя делать нормой культуру недоверия и становиться на сторону авторитарных режимов, которые применяют ИИ для подавления гражданского общества», — заявил Брайер перед дебатами.

Его многочисленные оппоненты возражали с трибуны Европарламента, что требовать полного запрета систем распознавания наивно, что они очень полезны в поиске террористов или, например, пропавших детей, и что сравнение с Китаем некорректно, поскольку в Европе правоохранительные органы и суды реально защищают права граждан.

Дискриминация

По мнению заместительницы председателя Еврокомиссии Маргрете Вестагер, отвечающей за антимонопольную политику, одна из самых насущных проблем, связанная с развитием искусственного интеллекта, — это дискриминация.

В эксклюзивном интервью Би-би-си Вестагер заявила, что более актуальной, по сравнению с вымиранием человечества в стиле «Терминатора», проблемой является потенциал ИИ по усилению предвзятости или дискриминации. По ее словам, этому способствует огромный объем данных, получаемых из интернета и используемых для обучения моделей и инструментов.

Маргрете Вестагер

Вестагер заявила Би-би-си, что регулирование ИИ необходимо для противодействия самым большим рискам, которые несет новая технология.

По ее словам, это имеет ключевое значение в тех случаях, когда искусственный интеллект используется для принятия решений, могущих повлиять на способность человека добывать средства к существованию, например, на получение ипотечного кредита.

«Вероятно, [риск вымирания] может существовать, но, по-моему, вероятность этого довольно мала. Я думаю, что риски ИИ больше связаны с тем, что люди будут подвергаться дискриминации, их не будут воспринимать такими, какие они есть, — сказала она. — Если банк использует ИИ для решения вопроса о том, можете ли вы получить ипотечный кредит, или если это социальные службы вашего муниципалитета, то хочется быть уверенным, что вы не подвергаетесь дискриминации из-за вашего пола, цвета кожи или места жительства».

Поскольку ИИ продолжает быстро развиваться, при выработке новых правил нужно проявлять прагматизм, считает Вестагер.

«Лучше получить, скажем, 80% сейчас, чем 100% никогда, поэтому давайте начнем, а когда научимся — вернемся к этому вопросу и скорректируем правила», — сказала она.

По ее мнению, риск того, что ИИ может быть использован для влияния на следующие выборы, «определенно существует».

Группы риска

В Законе об ИИ, который центральные европейские органы разрабатывали два года — и недавно внесли новые правки в связи с появлением феномена ChatGPT-4 — системы искусственного интеллекта разделены на четыре группы: группа «неприемлемого риска», группа «высокого риска», «генерирующие» системы и группа «ограниченного риска».

В группу «неприемлемого риска» зачислены:

  • системы, созданные для воздействия на подсознание людей;
  • системы социального рейтинга, разделяющего людей на категории по их поведению, социально-экономическому положению и прочим личным характеристикам;
  • системы распознавания в режиме реального времени.

Все они будут в Европе запрещены, исключение сделано для использования систем распознавания правоохранительными органами постфактум и с разрешения суда.

В группу «высокого риска» попали:

  • системы, применяющиеся в товарах и услугах, которые в ЕС попадают под лицензирование в рамках защиты потребителей. Это, например, игрушки, автомобили, авиация, медицинская аппаратура;
  • системы управления критически важной инфраструктурой;
  • системы, применяемые в образовательных учреждениях или в работе с персоналом фирм и учреждений;
  • системы, применяемые в правоохранительных органах, работе с мигрантами и беженцами и в охране границ.

Все эти системы ИИ будут оцениваться до их внедрения и по ходу применения и регистрироваться в специальной базе данных ЕС.

Владельцы систем, генерирующих контент, таких как ChatGPT, должны будут:

  • помечать созданный ими контент;
  • программировать их так, чтобы они не создавали противозаконный контент;
  • обнародовать списки данных, которые защищены авторским правом и на которых обучалась система.

Все прочие системы ИИ включены в группу «низкого риска», от них требуется лишь быть достаточно открытыми — чтобы пользователь знал, что имеет дело с ИИ, и имел достаточно информации, чтобы принять обоснованное решение, пользоваться ли им дальше.