Выбирай : Покупай : Используй

Вход для партнеров

Вход для продавцов

0

Минцифры предложили ввести в России маркировку для всех текстов и рисунков, созданных ИИ

Российский вуз РТУ МИРЭА предложил Минцифры ряд инициатив, направленных на обеспечение безопасности при использовании искусственного интеллекта. В частности, выдвигается инициатива о введении обязательной маркировки контента, созданного с помощью ИИ. Каким образом это будет происходить технологически — неизвестно. Эксперты считают, что российские ИИ-сервисы будут обязаны автоматически маркировать любые сгенерированные внутри сервиса тексты. По их мнению, реализация инициативы может привести к официальной блокировке зарубежных ИИ-сервисов, так как контент, созданный ими, попросту сложно распознать.

ИИ-маркировка

Российский технологический университет (РТУ МИРЭА) обратился к Минцифры с просьбой ввести обязательную маркировку контента, созданного с помощью искусственного интеллекта (ИИ), и подготовить программу защиты «критически важной инфраструктуры» (по всей видимости, речь идет о критической информационной инфраструктуре — КИИ) от возможных кибератак с использованием нейросетей. Об этом пишет ТАСС со ссылкой на письмо ректора РТУ МИРЭА Станислава Куджа главе Минцифры Максуту Шадаеву.

«РТУ МИРЭА предлагает… закрепить обязательную маркировку контента, созданного с помощью технологии “нейросети”, специальным графическим знаком в рамках федерального проекта “Искусственный интеллект” национальной программы “Цифровая экономика” и предусмотреть разработку соответствующего постановления Правительства России, …подготовить и утвердить программу защиты критически важной инфраструктуры от возможных кибератак с использованием нейросетей», — говорится в письме, на которое ссылается ТАСС.

РТУ МИРЭА также предложили дополнить приказ Минцифры № 734 «Об определении угроз безопасности персональных данных» от 21 декабря 2020 г. отдельным пунктом об угрозах несанкционированного доступа к персональным данным людей без соответствующих полномочий в информационных системах и дальнейшего использования этих данных с применением ИИ.

Минцифры попросили маркировать весь ИИ-контент

«Очевидно, что без введения дополнительных мер контроля за развитием искусственного интеллекта нейросети уже в ближайшие несколько лет смогут гораздо эффективнее, чем люди, взламывать защиту компьютерных программ, в том числе в критически важных для экономики сферах», — указано в письме.

Кроме того, РТУ просит добавить в спецпроект Минцифры «КиберЗОЖ» федерального проекта «Информационная безопасность» модуль, касающийся ИИ под названием «Противодействие неправомерному использованию нейросетей». В РТУ выяснили у экспертов, что рейтинг опасностей нейросетей среди опрошенных участников исследования возглавляет возможный рост киберпреступности, следует из письма вуза. Также в университете отметили, что массовое использование ИИ даже в развлекательных целях может ставить под угрозу сохранность персональных данных пользователей. Плюс ко всему, развитие нейросетей уже может стать причиной дефицита вакансий в ряде специальностей.

Хорошо, когда умеренно

Руководитель практики машинное обучение и искусственный интеллект Axenix (экс-Accenture) Алексей Сергеев заверил CNews, что умеренная регуляция — это хорошо. «Кто-то должен обеспечивать гарантии для общества и устанавливать правила игры. Подобный вопрос возникал в контексте регуляции рекомендательных движков; сейчас это ушло на задний план, учитывая технологические изменения за последний год. Здесь, как и в той ситуации, позиция бизнеса простая: не переборщить с мерами сдерживания настолько, что это нанесет ущерб динамике развития технологии в России. Мы и так на догоняющих позициях, учитывая что и ChatGPT, и Midjourney — продукты западных компаний и инвестиций», — отметил эксперт.

Он считает, что сейчас нужно найти правильный баланс и таргетирование мер контроля, в противном случае, это создаст стимул для технологических предпринимателей действовать нелегально, запускать свои продукты в других юрисдикциях и подталкивать утечку ценных компетенций из России.

Управляющий партнер коммуникационного агентства iTrend для ИТ-компаний Ася Власова сказала CNews, что маркировка ИИ-контента — логичный шаг для регулятора. «В первую очередь, ИИ-сервисы несут опасность появления огромных массивов не только никем не проверенных текстов, но и даже полностью выдуманных фактов, цифр и данных. С учетом того, что искусственный интеллект постоянно дообучается, то с течением времени он будет уже ссылаться сам на себя, и количество фейков будет расти в геометрической прогрессии», — считает эксперт.

По ее мнению, опасность представляет и возможность сбора личных данных людей (фото, личных постов, геотэгов из соцсетей), обучения ИИ на примерах личной переписки и применения этой информации киберпреступниками в социальной инженерии, для взломов систем или банального шантажа. ИИ-контент (как текстовый, так и графический) в целом открывает совершенно новое пространство для информационных атак и fake news. Однако, каким бы логичным ни было внедрение инструментов контроля над ИИ-контентом, оно неизбежно натолкнется на два препятствия. Первое — выявить ИИ-контент крайне сложно: пока неясно, какая филологическая экспертиза позволит распознавать степень участия машины и человека в одном и том же тексте, т. к. человек постоянно дообучает алгоритм на новых датасетах, может взять за основу ИИ-контент и доработать его и т. д., считает Власова.

«Вероятно, российские ИИ-сервисы будут обязаны автоматически маркировать любые сгенерированные внутри сервиса тексты. Тексты, созданные зарубежными сервисами, будет малореально распознать. Такие сервисы могут в будущем официально блокировать, но при необходимости злоумышленники всегда могут блокировки обойти», — сказала она.

Вторая проблема — это нежелание самих пользователей афишировать, что тот или иной контент создан нейросетью, говорит Власова. «Если при создании описаний товаров авторство ИИ не проблема, то копирайтеру или дизайнеру не всегда выгодно признавать использование ИИ в своей работе», — сказала она. По данным АНО «Цифровая экономика», в 2021 г. в России объем инвестиций в ИИ-проекты увеличился на 170%, причем со стороны как частных инвесторов, так и государства, отмечает она.

«Поэтому попытки регулировать эту сферу понятны и, вероятно, своевременны и оправданны. Но пока мы видели лишь одну попытку маркировки товаров и услуг в креативных индустриях — в сентябре 2022 г. в силу вступили новые правила маркировки рекламы в интернете . Система до сих пор выстраивается. К примеру, до сих пор ведется спор о том, какие именно креативы относить к категории рекламных, нужно ли маркировать каждый пресс-релиз или новость. Согласно разъяснению ФАС от 21 ноября 2022 г., рекламными можно признать любые материалы, если в них уделяется особое внимание одному товару, есть призывы его приобрести. Во избежание штрафов маркируют все подряд. По факту же, недавно российские рекламные и маркетинговые ассоциации вместе с объединением профильных юристов попросили законодателей смягчить ответственность за нарушение правил маркировки интернет-рекламы, а также отложить готовящееся введение санкций минимум до 2024 г.», — сообщила Власова.

ИИ приносит риски

Сооснователь и Product Owner, Comply Сергей Сайганов сказал CNews, что нейросети являются мощным инструментом в руках киберзлоумышленников за счет возможности мгновенно анализировать и генерировать большие объемы информации. Поэтому абсолютно точно нужно актуализировать перечни угроз безопасности возможными векторами атаки с использованием нейросетей, а также обучать этому будущих специалистов, считает эксперт.

«Однако не вполне ясны цель и механизмы маркировки материалов, сгенерированных нейросетями. В частности, на ком будет лежать такая ответственность: на авторе контента, что фактически невозможно проконтролировать, или на цифровой площадке, где размещается нейросетевой контент, что в свою очередь ляжет дополнительной нагрузкой на и так огромный блок обязанностей для владельцев площадок. Цель же такой маркировки сомнительна: очевидно, злоумышленники, практикующие дип-фейки, не будут добровольно накладывать маркер подделки», — отметил эксперт.

Сопредседатель кластера РАЭК Privacy & Legal Innovation Александр Партин сказал CNews, что если говорить о введении требования маркировать контент, то имеет смысл это делать в отношении аудио-, фото- или видеоматериалов, использующих образ известного человека и претендующих на реалистичность (технологии, известные как дипфейки).

«Защита критически важной инфраструктуры от кибератак с использованием нейросетей — это, безусловно, правильная идея. Другой вопрос, что нейросеть как технология появилась достаточно давно, а значит и так уже должна приниматься во внимание при определении угроз безопасности данных (включая персональные). Поэтому внесение изменений в приказ Минцифры и принятие постановления Правительства имеет смысл, только если повлечет практические действия по повышению уровня защиты, а не останется декларацией на бумаге», — сказал Партин.