Новости Ассоциации

Новые стандарты по ИИ в России: порядок или тормоз для рынка?

В 2026 году в России вступают в силу новые стандарты в сфере искусственного интеллекта. Речь идёт о документах, посвящённых ситуационной видеоаналитике, оценке воздействия ИИ-систем, прозрачности ИИ и применению искусственного интеллекта в критической информационной инфраструктуре.

Формально всё это выглядит как шаг к упорядочению рынка. Но на практике ситуация не такая однозначная.

Как считает председатель Ассоциации инновационных решений и искусственного интеллекта «Регионы XXI век» Ольга Чернокоз, сама идея выстраивания правил для отрасли понятна, но проблема в том, в какой момент и в какой форме это делается.

Российский рынок ИИ пока не находится в стадии устойчивой зрелости. Он ещё формируется: в нём много небольших разработчиков, пилотных решений, отраслевых экспериментов и компаний, которые только пытаются выйти на рынок.

В такой ситуации слишком раннее усложнение требований может не укрепить сектор, а, наоборот, замедлить его.

Один из новых стандартов касается ситуационной видеоаналитики. Это направление, где ИИ используется для анализа видеопотоков, распознавания объектов, отслеживания событий и автоматической фиксации различных ситуаций.

Сам по себе единый подход к оценке таких решений полезен: заказчику действительно нужно понимать, как измерять качество системы и по каким критериям сравнивать разные продукты. ГОСТ Р 72563-2026 как раз задаёт такую методологию оценки функциональных характеристик.

Но здесь возникает и другая сторона вопроса. Чем больше формальных требований к тестированию, метрикам, процедурам и описанию результатов, тем выше порог входа на рынок.

Для крупного игрока это неприятно, но посильно. Для небольших технологических компаний это уже реальная нагрузка. Им приходится тратить ресурсы не только на разработку продукта, но и на его бюрократическое сопровождение.

В итоге рынок может получить не рост конкуренции, а её сокращение.

Отдельный риск связан со стандартом по оценке воздействия системы искусственного интеллекта. ГОСТ Р 72514-2026 вводится с 1 мая 2026 года и посвящён оценке последствий применения ИИ-систем.

На уровне идеи это выглядит разумно: нужно понимать, какие риски создаёт технология, как она влияет на людей, процессы, безопасность и права пользователей.

Но на практике именно такие документы нередко становятся основой для роста согласований, внутренних проверок и осторожности со стороны заказчиков.

А это уже означает более длинный цикл внедрения.

Бизнесу начинают говорить не только: «внедряйте ИИ», но и:

«сначала подготовьте оценку воздействия, опишите риски, подтвердите корректность подходов, сформируйте пакет документов».

Для крупных корпораций и госструктур это ещё реализуемо. Для среднего бизнеса это часто означает одно: проще отложить внедрение вообще.

Как отмечает Ольга Чернокоз, главный риск сегодня состоит в том, что регулирование может начать опережать реальный уровень развития рынка.

Когда отрасль ещё не стала массовой, чрезмерное усложнение процедур бьёт прежде всего не по сильнейшим игрокам, а по тем, кто только пытается вырасти.

В результате выигрывают крупные структуры, а малые команды и региональные разработчики оказываются в заведомо более слабом положении.

Не менее спорным выглядит и стандарт по прозрачности ИИ-систем — ГОСТ Р 72515-2026, который также начинает действовать с 1 мая 2026 года.

Он связан с тем, какую информацию о системе нужно раскрывать: как она устроена, где границы её применения, какие у неё ограничения, как она обновляется и насколько предсказуемо её поведение.

Сама по себе прозрачность — правильная цель.

Но проблема в том, что в реальной конкурентной среде далеко не всё можно раскрывать без ущерба для разработчика.

Для многих ИИ-компаний данные о модели, архитектуре, процессах дообучения и внутренних ограничениях — это часть конкурентного преимущества.

Чем жёстче требования к раскрытию, тем выше риск конфликта между стандартизацией и коммерческой логикой рынка.

Проще говоря, компанию могут поставить в ситуацию, когда для соответствия ожиданиям регуляторов ей придётся слишком глубоко «раздевать» собственный продукт.

Ещё более чувствительная тема — предварительный стандарт по ИИ в критической информационной инфраструктуре, ПНСТ 1046-2026.

Он действует с 1 апреля 2026 года до 1 апреля 2029 года и касается ИИ-систем в составе объектов КИИ.

Здесь, безусловно, нужны повышенные требования к устойчивости, безопасности и отказоустойчивости.

Но именно в этой зоне может возникнуть самый жёсткий консервативный эффект.

Чем строже рамка, тем осторожнее заказчики будут относиться к любым новым решениям.

Для отрасли это означает простой, но неприятный сценарий:

  • там, где можно было бы запускать пилоты — будут не рисковать;
  • там, где можно было бы тестировать новые ИИ-решения — будут выбирать проверенные и менее инновационные схемы.

В результате под предлогом надёжности можно получить технологическую инерцию.

По мнению Ольги Чернокоз, главный вопрос сегодня не в том, нужны ли стандарты вообще. Они нужны.

Вопрос в другом: не превращаются ли они в фильтр, который рынок пока не готов пройти без потерь.

Если регулирование будет вводиться без учёта реальных возможностей разработчиков, без переходного периода, без льготных режимов для пилотов и без адаптации под малый и средний технологический бизнес, то эффект может оказаться обратным заявленным целям.

Вместо роста доверия можно получить рост формализма.

Вместо ускорения внедрения — затягивание сроков.

Вместо поддержки отечественных решений — усиление только крупнейших игроков.

А это уже не развитие конкурентного рынка, а его постепенное сужение.

Именно поэтому сегодня важно говорить не только о плюсах стандартизации, но и о её цене для отрасли.

Искусственный интеллект — это сфера, где избыточная зарегулированность может бить не меньше, чем отсутствие правил.

Если рынок загнать в слишком тяжёлую нормативную рамку на ранней стадии, можно не повысить качество решений, а просто сократить число тех, кто вообще готов ими заниматься.

С точки зрения Ассоциации инновационных решений и искусственного интеллекта «Регионы XXI век», сейчас особенно важно не допустить, чтобы стандарты стали барьером для развития российских ИИ-команд, региональных разработчиков и малого технологического бизнеса.

Регулирование должно создавать рамку доверия, а не превращаться в механизм отсечения тех, у кого нет больших административных и финансовых ресурсов.