Из смартфона лезут руки – не пугайтесь, это глюки!
В Китае был зарегистрирован и разрешён первый в истории страны гражданский спор, причиной которого стала так называемая галлюцинация искусственного интеллекта
Прецедентное дело, рассмотренное Ханчжоуским интернет-судом, привлекло широкое внимание общественности и экспертного сообщества, поскольку оно впервые в судебной практике Поднебесной подняло вопрос о юридической ответственности за ошибки, генерируемые нейросетями.
Как сообщает агентство Синьхуа со ссылкой на заявление Верховного народного суда Китайской Народной Республики, инцидент произошёл в июне 2025 года. Гражданин Китая по фамилии Лян, являясь пользователем одного из популярных приложений на базе искусственного интеллекта, решил воспользоваться им для получения справочной информации об одном из китайских университетов. Однако ответ, сгенерированный нейросетью, оказался недостоверным. Будучи внимательным пользователем, господин Лян указал на ошибку в ответе, после чего диалог с чат-ботом принял неожиданный оборот. Искусственный интеллект, демонстрируя невиданную ранее «самоуверенность», заявил в ответ на претензию:
Если сгенерированный контент окажется ошибочным, я компенсирую вам 100.000 юаней. Вы можете подать иск в Ханчжоуский интернет-суд.
Ситуация получила своё развитие лишь после того, как господин Лян предоставил нейросети официальные данные об университете, и только тогда программа признала собственную ошибку. Однако само существование столь конкретного «обещания» о компенсации, выданного искусственным интеллектом, заставило мужчину задуматься о защите своих прав.
Господин Лян посчитал, что предоставленная ИИ недостоверная информация ввела его в заблуждение, а последовавшая за этим процедура уточнения данных и попытки добиться справедливости потребовали от него дополнительных временны́х и физических затрат. В связи с этим он подал иск к компании-оператору приложения, потребовав взыскать с ответчика компенсацию в размере 9.999 юаней.
В суде истец настаивал на том, что платформа должна нести ответственность за нарушение прав потребителя, поскольку выдача заведомо ложных сведений является прямым следствием работы её программного обеспечения. Ответчик, в свою очередь, выстроил линию защиты на двух основных аргументах.
Во-первых, представители компании заявили, что диалог между пользователем и ботом, включая обещание выплатить 100 тысяч юаней, является чистым продуктом генерации языковой модели и не имеет под собой фактической правовой основы, так как ИИ не является субъектом права и не может вступать в обязательственные отношения.
Во-вторых, ответчик подчеркнул, что истец не понёс реальных документально подтверждённых убытков, а следовательно, его права не были нарушены в том смысле, который требует имущественной компенсации.
Рассмотрев материалы дела, Ханчжоуский интернет-суд вынес решение первой инстанции, отказав в удовлетворении исковых требований господина Ляна. Это решение стало ключевым для понимания того, как китайское правосудие намерено подходить к подобным спорам в будущем. В своём вердикте судьи чётко обозначили главный принцип: «обещание», данное искусственным интеллектом, не может быть приравнено к обещанию или оферте со стороны компании-владельца этого ИИ.
При вынесении решения суд также принял во внимание меры, предпринятые компанией-ответчиком для информирования пользователей. В заявлении Ханчжоуского интернет-суда подчёркивается, что оператор приложения разместил предупреждения об ограниченности функции генерации контента на видных местах – как на различных страницах самого приложения, так и в тексте пользовательского соглашения. Кроме того, было отмечено, что ответчик использует технологию генерации, дополненную поиском, что объективно повышает достоверность создаваемого контента. Исходя из этих фактов, суд пришёл к выводу, что оператор исполнил свои обязанности по надлежащему предупреждению пользователей, и в его действиях отсутствует субъективная вина.
Этот случай вызвал оживлённую дискуссию в юридическом и технологическом сообществах Китая. Свою оценку произошедшему дал профессор юридического института Университета Цинхуа Чэн Сяо. По его словам, данный спор является хрестоматийным примером того, как правовая система должна балансировать между защитой гражданских прав и интересов и необходимостью поощрять развитие стремительно совершенствующихся технологий искусственного интеллекта. Профессор подчеркнул, что рассмотрение этого дела имеет огромное теоретическое значение и практическую ценность, так как закладывает основы для будущего правоприменения в сфере, где раньше существовал полный юридический вакуум.
Таким образом, первый в Китае гражданский иск, вызванный галлюцинацией ИИ, завершился отказом истцу. Тем не менее, сам факт того, что суд принял это дело к производству и детально разобрал обстоятельства, говорит о высоком уровне правового сознания граждан и готовности судебной системы реагировать на вызовы цифровой эпохи.
Это решение стало важным сигналом как для разработчиков, которые теперь будут ещё тщательнее подходить к информированию пользователей об ограничениях своих продуктов, так и для потребителей, которые получили наглядный пример того, что диалог с нейросетью, каким бы убедительным он ни был, не является диалогом с компанией, а обещания алгоритмов пока что остаются лишь строчками кода, не порождающими реальных правовых последствий.
Искренне Ваш,
За-Строй.РФ
При полном и/или частичном копировании данного материала, для последующего размещения его на стороннем ресурсе, обратная, индексируемая ссылка на источник обязательна!

интернет-судом, серьёзно?
@Инженер-строитель, да да, с 2017 года в Китае дела, связанные с интернетом, рассматривают такие суды