Контроль над алгоритмами: почему в России хотят запретить «лишние вопросы» ИИ
Инициатива по введению цензуры для искусственного интеллекта в России вызвала широкую дискуссию среди экспертов и участников отрасли. Поводом стало заявление замглавы Минцифры РФ Александра Шойтова, который, как сообщает РИА Новости, выступил за необходимость ограничений для ИИ.
По его словам, в отличие от граждан, обладающих правами и свободами, искусственный интеллект должен работать в строго регулируемых рамках.
«Я считаю, что искусственный интеллект должен быть подвержен цензуре… у него на входе и на выходе должны стоять цензуры, которые запрещают определенные запросы, вопросы», — отметил он на форуме «ИИ: режим доверия».
Инициатива прозвучала на фоне подготовки законопроекта о регулировании ИИ, который Минцифры вынесло на общественное обсуждение. Документ предполагает закрепление самого понятия искусственного интеллекта, определение прав и обязанностей участников рынка, а также введение обязательной маркировки контента, созданного с помощью ИИ.
Однако предложение о «двойной цензуре» — как входящих запросов, так и ответов системы — вызывает серьезные вопросы у экспертов. В частности, член СПЧ, глава «Белого Интернета» Элина Сидоренко обращает внимание на технологическую и правовую сложность подобного подхода.
«Сама идея цензуры для ИИ технически сомнительна. Современные модели — это сложные вероятностные системы, а не просто базы данных с фиксированными ответами. Попытка тотально фильтровать и входные данные пользователя, и выходные фактически требует создания “идеального безопасного ИИ”, что в принципе недостижимо», — отмечает эксперт.
По ее словам, на практике такие ограничения могут привести к обратному эффекту: либо к постоянным сбоям в работе систем из-за ложных срабатываний, либо к появлению «урезанных» моделей, не способных отвечать на значительную часть даже легитимных запросов пользователей.
Отдельное внимание Сидоренко уделяет рискам для приватности.
«Мониторинг того, что пользователь пишет в диалоге с нейросетью, фактически приравнивается к прослушиванию личных разговоров или чтению черновиков», — подчеркивает она.
По мнению эксперта, вмешательство в такие процессы без судебных оснований может рассматриваться как чрезмерный контроль.
Кроме того, подобные меры могут негативно сказаться на конкурентоспособности российских разработок.
«Дополнительные ограничения сделают отечественные продукты заведомо менее удобными и более ограниченными по сравнению с зарубежными аналогами», — считает Сидоренко.
Ключевой вопрос, который остается без ответа, касается механизмов реализации подобной цензуры.
«Отсутствие прозрачных, публичных и оспариваемых критериев неизбежно превратит систему в инструмент для блокировки любых неудобных тем под видом “безопасности”», — предупреждает она.
В качестве альтернативы эксперт предлагает развивать не предварительные ограничения, а механизмы постконтроля.
«Логичнее было бы развивать механизмы пост-модерации и ответственности за конкретные вредоносные действия, совершенные с помощью ИИ, а не давить на входные данные миллионов пользователей», — заключает Сидоренко.
Таким образом, дискуссия вокруг регулирования искусственного интеллекта в России выходит за рамки технического вопроса и затрагивает фундаментальные темы — от баланса безопасности и свободы до будущего цифровой экономики.