Открытие данных
Российские государственные данные откроют для нейронных сетей, но не для всех, пишет «Коммерсант». Документ также вводит ответственность для ИТ-разработчиков и операторов за обеспечение информационной безопасности (ИБ) таких ИТ-систем.
В 2025 г. Правительство России приступило к проработке механизма безопасного обмена обезличенными данными с ИТ-разработчиками в области ИИ, об этом говорил заместитель председателя Правительства России Дмитрий Григоренко в ходе рабочей встречи с представителями ИТ-бизнеса. По его словам, в России необходимо разработать механизмы, которые позволяли бы наладить безопасный обмен обезличенной информацией с ИТ-компаниями, не нарушая при этом требований к защите персональных данных и иной чувствительной информации российских граждан. Параллельно в Правительстве уделяют особое внимание ИТ-инфраструктурной базе для обучения и работы нейронных сетей, требующей современных центров обработки данных (ЦОД).
5 мая 2026 г. в новой версии законопроекта о регулировании искусственного интеллекта (ИИ) суверенным и национальным ИИ-моделям предложили обучаться на государственных данных. Доступ к ним можно будет получить после разрешения от Федеральной службы безопасности (ФСБ) России и Федеральной службы по техническому и экспортному контролю (ФСТЭК). Документ также предусматривает ответственность для операторов и владельцев ИИ за обеспечение информационной безопасности (ИБ) ИИ-моделей.
Законопроектом теперь также закрепляется статус ИИ как доверенного только в том случае, если ИИ-модель внесена в соответствующий реестр. В свою очередь, порядок ведения реестра доверенных ИИ и включения в него ИИ-моделей может устанавливать Правительство России. Кроме того, российские власти смогут устанавливать случаи обязательного применения суверенных и национальных ИИ в банковской сфере по согласованию с Центральным Банком (Центробанк) России. Ранее требование нахождения в реестре предполагалось только для тех ИИ-моделей, которые используются на объектах критической информационной инфраструктуры (КИИ) и в государственных информационных системах.
Дальнейшая доработка
Как информировал CNews, первая версия законопроекта предполагала разделение суверенной и национальной ИИ-моделей. Для получения статуса суверенной ИИ-модели необходимо было бы пройти все стадии ИТ-разработки, обучения и эксплуатации только на территории России и только российскими ИТ-компаниями. Национальные же ИИ-модели могли быть созданы при использовании иностранных Open Source-решений, но при их обучении должны были также использоваться и российские датасеты.
В Министерстве цифрового развития, связи и массовых коммуникаций (Минцифры) сообщили «Коммерсанту», что в мае 2026 г. документ дорабатывается совместно с отраслью и заинтересованными федеральными органами исполнительной власти Критерии включения ИИ-моделей в реестр доверенных планируется установить отдельными нормативными актами уполномоченных органов. «Доверенность будет распространяться на ИИ-модели, предназначенные для использования на объектах КИИ и в государственных информационных системах. Однако говорить о финальной версии документа и его конкретных параметрах преждевременно», — пояснили в Минцифры.
Коррекция формулировок
В «Т-Технологии», материнская компания «Т-Банка», отметили «Коммерсант», что текущая версия законопроекта вводит понятия «суверенной» и «национальной» ИИ-модели, однако не раскрывает их содержание, а также не определяет порядок и сферы их применения. Директор по развитию технологий ИИ ??Т-Технологий» Алексей Шпильман считает, что установить четкие и осмысленные требования к «национальности» или «суверенности» ИИ-моделей технически крайне сложно. По его мнению, любые предлагаемые критерии окажутся либо невыполнимыми, либо формальными, поскольку под них можно будет подвести практически любые минимально модифицированные иностранные ИИ-модели.
В MWS AI, дочерняя компания МТС и Центр компетенций в ИИ-области, полагают, что процедура согласования использования закрытых данных с государственными структурами не должна существенно осложнить процесс обучения и эксплуатации ИИ-моделей.
Генеральный директор Национальной федерации музыкальной индустрии Никита Данилов считает обоснованным введение дополнительных требований к обучению ИИ-систем на государственных данных. По его мнению, бесконтрольное использование таких наборов, включая персональные данные, создает значительные риски в ИБ.
В Ассоциации больших данных добавили, что при развитии регулирования крайне важно не допустить в России появления избыточных административных барьеров, особенно в части доступа к данным, необходимым для выполнения установленных обязанностей.



