Скопировано

Евросоюз усиливает контроль за соблюдением конфиденциальности в системах ИИ глобальных IT-компаний

30.09.2024
Дата публикации
В центре внимания европейских регуляторов оказались такие гиганты как Google, платформа X (бывший Twitter) и Meta (владеет Instagram, Facebook и WhatsApp), что подчёркивает серьёзность подхода европейских регулирующих органов и важность защиты персональных данных на фоне растущей роли ИИ в современном обществе.

В середине сентября 2024 года ведущий регулятор ЕС по защите данных, Ирландская комиссия по защите данных (DPC), объявила о начале расследования в отношении компании Google.

Основной целью проверки стало выяснение, насколько тщательно компания защищает персональные данные европейских пользователей при разработке своей новой ИИ-системы Pathways Language Model 2 (PaLM 2).

Регулятор отметил, что это расследование является частью более широких усилий по контролю за обработкой персональных данных в рамках развития ИИ в Европе.

Компания X, принадлежащая Илону Маску, также попала под пристальное внимание DPC. В августе 2024 года X согласилась временно прекратить использование персональных данных пользователей из ЕС для обучения своих ИИ-систем, включая чат-бот Grok.

Регулятор выразил опасения, что компания начала обработку данных до того, как пользователям была предоставлена возможность отказаться от этого. С 16 июля 2024 года у пользователей появилась возможность отключить обработку данных через настройки конфиденциальности.

Тем временем, судебные разбирательства по поводу законности использования данных X продолжаются и платформа временно отказалась от использования данных, собранных между маем и августом 2024 года, до окончательного решения суда.

Представители X считают действия регулятора необоснованными и заявили, что компания соблюдает законы о конфиденциальности. Однако этот случай лишь подчёркивает напряженность вопроса использования данных пользователей в ИИ-системах.

Стоит отметить, что X и Google не первые компании, столкнувшиеся с подобными расследованиями. В июне 2024 года Meta отложила запуск своих ИИ-моделей в Европе после консультаций с Ирландской комиссией по защите данных.

Главным инструментом защиты персональных данных в ЕС является Общий регламент по защите данных (GDPR), принятый в 2018 году. GDPR обязывает компании получать явное согласие пользователей на обработку их данных и предоставляет им право отозвать его в любой момент.

Компании, нарушающие этот закон, могут столкнуться с серьезными штрафами, что делает его одним из самых строгих в мире стандартов защиты данных.

Дополнительное внимание конфиденциальности данных в контексте ИИ связано с тем, что в августе 2024 года вступил в силу новый Закон ЕС о регулировании искусственного интеллекта (EU AI Act). Документ вводит строгие правила использования ИИ-систем, направленные на минимизацию рисков, связанных с технологией.

Таким образом, заметно, что европейский подход к регулированию ИИ отличается своей жёсткостью.

Наряду с уже существующими механизмами, такими как GDPR, новый закон о регулировании ИИ ставит перед компаниями серьёзные задачи по соблюдению норм, что требует значительных изменений в их бизнес-процессах.