Top.Mail.Ru

Контроль над алгоритмами: почему в России хотят запретить «лишние вопросы» ИИ

© Изображение создано искусственным интеллектом
Инициатива Минцифры вызвала вопросы о приватности и развитии технологий

Инициатива по введению цензуры для искусственного интеллекта в России вызвала широкую дискуссию среди экспертов и участников отрасли. Поводом стало заявление замглавы Минцифры РФ Александра Шойтова, который, как сообщает РИА Новости, выступил за необходимость ограничений для ИИ.

По его словам, в отличие от граждан, обладающих правами и свободами, искусственный интеллект должен работать в строго регулируемых рамках.

«Я считаю, что искусственный интеллект должен быть подвержен цензуре… у него на входе и на выходе должны стоять цензуры, которые запрещают определенные запросы, вопросы», — отметил он на форуме «ИИ: режим доверия».

Инициатива прозвучала на фоне подготовки законопроекта о регулировании ИИ, который Минцифры вынесло на общественное обсуждение. Документ предполагает закрепление самого понятия искусственного интеллекта, определение прав и обязанностей участников рынка, а также введение обязательной маркировки контента, созданного с помощью ИИ.

Однако предложение о «двойной цензуре» — как входящих запросов, так и ответов системы — вызывает серьезные вопросы у экспертов. В частности, член СПЧ, глава «Белого Интернета» Элина Сидоренко обращает внимание на технологическую и правовую сложность подобного подхода.

«Сама идея цензуры для ИИ технически сомнительна. Современные модели — это сложные вероятностные системы, а не просто базы данных с фиксированными ответами. Попытка тотально фильтровать и входные данные пользователя, и выходные фактически требует создания “идеального безопасного ИИ”, что в принципе недостижимо», — отмечает эксперт.

По ее словам, на практике такие ограничения могут привести к обратному эффекту: либо к постоянным сбоям в работе систем из-за ложных срабатываний, либо к появлению «урезанных» моделей, не способных отвечать на значительную часть даже легитимных запросов пользователей.

Отдельное внимание Сидоренко уделяет рискам для приватности.

«Мониторинг того, что пользователь пишет в диалоге с нейросетью, фактически приравнивается к прослушиванию личных разговоров или чтению черновиков», — подчеркивает она.

По мнению эксперта, вмешательство в такие процессы без судебных оснований может рассматриваться как чрезмерный контроль.

Кроме того, подобные меры могут негативно сказаться на конкурентоспособности российских разработок.

«Дополнительные ограничения сделают отечественные продукты заведомо менее удобными и более ограниченными по сравнению с зарубежными аналогами», — считает Сидоренко.

Ключевой вопрос, который остается без ответа, касается механизмов реализации подобной цензуры.

«Отсутствие прозрачных, публичных и оспариваемых критериев неизбежно превратит систему в инструмент для блокировки любых неудобных тем под видом “безопасности”», — предупреждает она.

В качестве альтернативы эксперт предлагает развивать не предварительные ограничения, а механизмы постконтроля.

«Логичнее было бы развивать механизмы пост-модерации и ответственности за конкретные вредоносные действия, совершенные с помощью ИИ, а не давить на входные данные миллионов пользователей», — заключает Сидоренко.

Таким образом, дискуссия вокруг регулирования искусственного интеллекта в России выходит за рамки технического вопроса и затрагивает фундаментальные темы — от баланса безопасности и свободы до будущего цифровой экономики.

Материал и иллюстрации подготовлены с использованием нейросетей
Теги: Мнения и аналитика ИИ