Российские защитники традиционных ценностей критикуют законопроект о госрегулировании искусственного интеллекта
Ольга Баранец, которая позиционирует себя как общественный уполномоченный по защите семьи, направила замечания на проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Предлагаем Вашему вниманию основные положения этой критики.
***
Общественная организация считает, что указанный законопроект в текущей редакции неприемлем, поскольку он не обеспечивает правовой определённости, подменяет законодательное регулирование административным усмотрением и не защищает права граждан.
Главная проблема законопроекта – его рамочный характер. Ключевые вопросы: критерии «доверенных моделей», порядок включения в реестр, требования к безопасности и качеству, случаи обязательного применения ИИ, правила маркировки синтезированного контента – переданы на усмотрение Правительства России и ведомств. Это означает, что реальные правила игры будут устанавливаться подзаконными актами, минуя парламентский контроль и общественное обсуждение. Для бизнеса это создаёт невозможность долгосрочного планирования, для граждан – снижение гарантий прав, а для рынка – риски лоббизма и административной монополизации.
Нормы об ответственности разработчиков, операторов и владельцев сервисов ИИ носят декларативный характер. Формулировки, вроде «должны были знать» или «соразмерно степени вины», не позволяют установить виновного в сложной технологической цепочке. Пострадавший оказывается беззащитным, а добросовестные участники рынка не могут понять пределы своей ответственности.
Законопроект провозглашает опору на традиционные духовно-нравственные ценности, но одновременно создаёт основу для внедрения ИИ в сферы, где требуются человеческое нравственное суждение: образование, социальная поддержка, правоохранительная деятельность. ИИ не обладает совестью, милосердием и не может нести моральную ответственность, поэтому алгоритмический вывод не должен подменять человеческое решение в вопросах, затрагивающих судьбу человека.
Особую опасность представляет отсутствие специального регулирования в образовании. Внедрение ИИ в школы и вузы без обязательной педагогической и психологической экспертизы угрожает когнитивному развитию детей. Системы распознавания эмоций, которые законопроект не запрещает, становятся инструментом скрытого психологического контроля над несовершеннолетними. Образовательные данные детей при этом могут использоваться в коммерческих целях и для дообучения моделей без должных ограничений.
Конструкция реестра «доверенных моделей» создаёт риски административной монополизации: малые и средние компании могут быть вытеснены с рынка из-за высоких бюрократических барьеров. А положения о «суверенных» моделях, требующие полной локализации разработки, не учитывают глобальный характер ИИ-отрасли и грозят не суверенитетом, а технологической самоизоляцией, утечкой кадров и отставанием в науке.
Права граждан, закреплённые в законопроекте (на отказ от использования ИИ, на информирование, на обжалование), остаются декларативными, поскольку их реальный объём отдан на усмотрение Правительства РФ. Нормы о маркировке синтезированного контента содержат лазейку, позволяющую по соглашению сторон отказаться от видимой для человека маркировки, что сводит на нет борьбу с дипфейками и мошенничеством.
В связи с изложенным, организация требует не принимать законопроект в текущей редакции и вернуть его на концептуальную переработку. Ключевые правила должны быть закреплены непосредственно в федеральном законе, а не переданы на подзаконный уровень. Необходимо установить перечень сфер, где ИИ не может применяться для автономного принятия решений (образование, социальная поддержка и другие), ввести специальный режим для образования с запретом распознавания эмоций и особыми гарантиями обработки детских данных, а также создать чёткие и работающие механизмы распределения ответственности между разработчиками, операторами и пользователями.
***
P.S. Добавим, что про саму госпожу Баранец на её сайте сказано следующее. Родилась в Эстонии в 1970 году. Закончила физико-математическую школу № 45 при Санкт-Петербургском государственном университете в 1988 году. Закончила биолого-почвенный факультет этого же вуза в 1993 года. Работала в Биологическом НИИ и параллельно училась в аспирантуре на биолого-почвенном факультете. Работала в школе педагогом. Организовала маленькую частную школу с детским садом (в настоящий момент не функционирует). Мама троих детей. Автор нескольких православных сказок для детей. Является координатором Санкт-Петербургского отделения общества ревнителей памяти А.А. Танеевой-Вырубовой (монахини Марии). Общественной деятельностью Ольга Николаевна занимается с 2008 года в связи с внедрением в Российской Федерации ювенальной юстиции.
А что касается проекта федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации», то с документом можно ознакомиться на официальном сайте для публикации проектов нормативных правовых актов.
Искренне Ваш,
За-Строй.РФ
Подписывайтесь на За-Строй.РФ в МАХ 
При полном и/или частичном копировании данного материала, для последующего размещения его на стороннем ресурсе, обратная, индексируемая ссылка на источник обязательна!

Искусственный интеллект не должен работать с людьми! А что касается совести, то у людей её тоже нет, но их хоть можно привлечь!
@Миледи, а тем более с детьми, которые только учатся жить, а не выживать
А разве не все федеральные законы носят чисто рамочный характер?
@Удивлённый саморегулятор, хорошо подметили, большинство, я бы сказал