Top.Mail.Ru

Чат-бот или живой специалист? Что изменит новый законопроект о регулировании искусственного интеллекта

© Изображение создано искусственным интеллектом
Интернет-технолог — о возможности отказаться от обслуживания алгоритмами и возможном росте стоимости услуг

Минцифры вынесло на общественное обсуждение законопроект «Об основах госрегулирования сфер применения технологий искусственного интеллекта». Документ впервые системно закрепляет правила разработки и использования ИИ в России — от обязательной маркировки сгенерированного контента до ответственности за вред, причиненный нейросетями. Обсуждение продлится до 15 апреля, а вступить в силу нормы могут с 1 сентября 2027 года.

Одна из ключевых целей — защита граждан от скрытых манипуляций. Законопроект вводит обязательную маркировку ИИ-контента: все аудиовизуальные материалы, созданные с применением технологий искусственного интеллекта, должны содержать предупреждение — как в формате, воспринимаемом человеком, так и в машиночитаемом виде. Конкретные требования установит правительство.

Кроме того, крупные соцсети с суточной аудиторией более 100 тысяч пользователей на территории РФ обяжут проверять наличие такой маркировки. Если предупреждение отсутствует, площадки должны будут либо самостоятельно маркировать материал, либо удалить его.

Однако не меньший интерес вызвала другая инициатива — право граждан отказаться от обслуживания с использованием ИИ.

Член Российской ассоциации политических консультантов, интернет-технолог Захар Рубцов в комментарии для РАПК отмечает, что формально речь идет о возможности требовать живого специалиста вместо алгоритма.

«Суть в том, что россияне смогут отказаться от обслуживания с помощью ИИ. Что это значит? Условно, если вам не хочется общаться с чат-ботом или получать решение от алгоритма – вам будут обязаны предоставить живого специалиста», — поясняет эксперт.

Пока речь идет лишь об инициативе, однако обсуждение уже набирает обороты. Часть экспертов считает идею логичной и способной усилить защиту прав потребителей, другие же указывают на возможные риски и необходимость более тщательной проработки механизма её реализации.

По словам эксперта, логика инициативы в целом выглядит обоснованной. Алгоритмы работают настолько качественно, насколько корректны данные, на которых их обучали.

«Хорошо известно, как умеют галлюцинировать нейросети – например, с полной невозмутимостью выдают ошибочные результаты, а иногда даже и выдумывают факты. В то время как живой специалист может почувствовать, что ситуация нестандартная и требует определенного подхода, нейросеть будет основываться лишь на статистических данных», — подчеркивает Рубцов.

Особенно чувствительной эта разница может быть в сферах медицины или финансов, где цена ошибки высока.

В то же время эксперт предупреждает и о возможных побочных эффектах. Обязанность предоставлять живого сотрудника может увеличить издержки бизнеса.

«С другой же стороны, требование «выдать живого человека» действительно может спровоцировать рост стоимости ряда услуг. Мы ведь все эти годы стояли на рельсах автоматизации, и вот она – автоматизация в действии», — отмечает он.

По мнению Рубцова, в конечном счёте многое будет зависеть от качества работы самих алгоритмов. Пользователи уже сталкиваются с ситуациями, когда «глупый робот» в службе поддержки не способен решить проблему, и приходится добиваться переключения на оператора. Но и это, замечает эксперт, не всегда гарантирует результат.

«Лично мне кажется, вопрос требует серьезной проработки. Важно понять, как это будет работать на практике. Возможно, имеет смысл обязать компании стать немного прозрачнее и сообщать пользователям, что решение принял алгоритм. И, разумеется, совершенствовать качество такого обслуживания (работать над развитием ИИ, особенно отечественного), ведь никто не гарантирует, что тот самый живой специалист, к которому обращаются за консультацией, не ищет параллельно ответ в ChatGPT», — считает он.

При этом, добавляет Рубцов, параллельно необходимо совершенствовать сами технологии, в том числе развивать отечественные решения в сфере ИИ. В противном случае формальное право выбора между человеком и алгоритмом может остаться лишь декларацией.

Таким образом, законопроект Минцифры задает рамки для будущего регулирования искусственного интеллекта — с акцентом на прозрачность и защиту прав граждан. Но вопрос о том, как найти баланс между технологическим прогрессом и интересами потребителей, пока остаётся открытым.

Материал и иллюстрации подготовлены с использованием нейросетей
Теги: Мнения и аналитика ИИ