Top.Mail.Ru
«ИИ не обладает совестью...»

Российские защитники традиционных ценностей критикуют законопроект о госрегулировании искусственного интеллекта

148
4
Время чтения 3 минуты
01.04.2026

Ольга Баранец, которая позиционирует себя как общественный уполномоченный по защите семьи, направила замечания на проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Предлагаем Вашему вниманию основные положения этой критики.

***

Общественная организация считает, что указанный законопроект в текущей редакции неприемлем, поскольку он не обеспечивает правовой определённости, подменяет законодательное регулирование административным усмотрением и не защищает права граждан.

Главная проблема законопроекта – его рамочный характер. Ключевые вопросы: критерии «доверенных моделей», порядок включения в реестр, требования к безопасности и качеству, случаи обязательного применения ИИ, правила маркировки синтезированного контента – переданы на усмотрение Правительства России и ведомств. Это означает, что реальные правила игры будут устанавливаться подзаконными актами, минуя парламентский контроль и общественное обсуждение. Для бизнеса это создаёт невозможность долгосрочного планирования, для граждан – снижение гарантий прав, а для рынка – риски лоббизма и административной монополизации.

Нормы об ответственности разработчиков, операторов и владельцев сервисов ИИ носят декларативный характер. Формулировки, вроде «должны были знать» или «соразмерно степени вины», не позволяют установить виновного в сложной технологической цепочке. Пострадавший оказывается беззащитным, а добросовестные участники рынка не могут понять пределы своей ответственности.

Законопроект провозглашает опору на традиционные духовно-нравственные ценности, но одновременно создаёт основу для внедрения ИИ в сферы, где требуются человеческое нравственное суждение: образование, социальная поддержка, правоохранительная деятельность. ИИ не обладает совестью, милосердием и не может нести моральную ответственность, поэтому алгоритмический вывод не должен подменять человеческое решение в вопросах, затрагивающих судьбу человека.

Особую опасность представляет отсутствие специального регулирования в образовании. Внедрение ИИ в школы и вузы без обязательной педагогической и психологической экспертизы угрожает когнитивному развитию детей. Системы распознавания эмоций, которые законопроект не запрещает, становятся инструментом скрытого психологического контроля над несовершеннолетними. Образовательные данные детей при этом могут использоваться в коммерческих целях и для дообучения моделей без должных ограничений.

Конструкция реестра «доверенных моделей» создаёт риски административной монополизации: малые и средние компании могут быть вытеснены с рынка из-за высоких бюрократических барьеров. А положения о «суверенных» моделях, требующие полной локализации разработки, не учитывают глобальный характер ИИ-отрасли и грозят не суверенитетом, а технологической самоизоляцией, утечкой кадров и отставанием в науке.

Права граждан, закреплённые в законопроекте (на отказ от использования ИИ, на информирование, на обжалование), остаются декларативными, поскольку их реальный объём отдан на усмотрение Правительства РФ. Нормы о маркировке синтезированного контента содержат лазейку, позволяющую по соглашению сторон отказаться от видимой для человека маркировки, что сводит на нет борьбу с дипфейками и мошенничеством.

В связи с изложенным, организация требует не принимать законопроект в текущей редакции и вернуть его на концептуальную переработку. Ключевые правила должны быть закреплены непосредственно в федеральном законе, а не переданы на подзаконный уровень. Необходимо установить перечень сфер, где ИИ не может применяться для автономного принятия решений (образование, социальная поддержка и другие), ввести специальный режим для образования с запретом распознавания эмоций и особыми гарантиями обработки детских данных, а также создать чёткие и работающие механизмы распределения ответственности между разработчиками, операторами и пользователями.

***

P.S. Добавим, что про саму госпожу Баранец на её сайте сказано следующее. Родилась в Эстонии в 1970 году. Закончила физико-математическую школу № 45 при Санкт-Петербургском государственном университете в 1988 году. Закончила биолого-почвенный факультет этого же вуза в 1993 года. Работала в Биологическом НИИ и параллельно училась в аспирантуре на биолого-почвенном факультете. Работала в школе педагогом. Организовала маленькую частную школу с детским садом (в настоящий момент не функционирует). Мама троих детей. Автор нескольких православных сказок для детей. Является координатором Санкт-Петербургского отделения общества ревнителей памяти А.А. Танеевой-Вырубовой (монахини Марии). Общественной деятельностью Ольга Николаевна занимается с 2008 года в связи с внедрением в Российской Федерации ювенальной юстиции.

А что касается проекта федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации», то с документом можно ознакомиться на официальном сайте для публикации проектов нормативных правовых актов.

Искренне Ваш,
За-Строй.РФ

Подписывайтесь на За-Строй.РФ в МАХ max

При полном и/или частичном копировании данного материала, для последующего размещения его на стороннем ресурсе, обратная, индексируемая ссылка на источник обязательна!

  • Миледи

    Искусственный интеллект не должен работать с людьми! А что касается совести, то у людей её тоже нет, но их хоть можно привлечь!

    01.04.2026, 11:51
    • Николай Сорокин
      отвечает пользователю

      @Миледи, а тем более с детьми, которые только учатся жить, а не выживать

      01.04.2026, 12:30
    Удивлённый саморегулятор
    01.04.2026, 12:01
    • Николай Сорокин
      отвечает пользователю

      @Удивлённый саморегулятор, хорошо подметили, большинство, я бы сказал

      01.04.2026, 12:31