Выбирай : Покупай : Используй
0

Российский искусственный интеллект будут продавать в дружественные страны

Экспорт доверенного искусственного интеллекта (ИИ) могут сертифицировать по аналогии с потребительскими товарами. В России к таким ИТ-платформам могут относиться разработки от компании Сбербанк и «Яндекс». Технологии ИИ являются источниками новых типов ошибок и уязвимостей, которые отличаются от классических уязвимостей программного обеспечения (ПО).

Внедрение сертификации

Доверенный ИИ будут популяризировать за рубежом, следует из одной из рабочих версий презентации мероприятий готовящегося федерального проекта «Искусственный интеллект» национального проекта «Экономика данных и цифровая трансформация государства». Об этом в конце августа 2024 г. сообщило издание «Ведомости».

Документ есть в распоряжении «Ведомостей», его подлинность подтвердили собеседник в одной из ИТ-компаний и источник, близкий к Министерству цифрового развития, связи и массовых коммуникаций (Минцифры) России. По словам второго, это не окончательная версия документа и он уже был переработан, но идея экспортировать отечественный ИИ в дружественные страны по-прежнему актуальна.

ИИ, как и любая преобразующая технология, находится в процессе разработки — его возможности и влияние на общество постоянно растут. Надежные инициативы в области ИИ признают реальные эффекты, которые ИИ может оказывать на людей и общество, и стремятся ответственно направлять эту силу для позитивных изменений. Концепция доверенного ИИ предусматривает интеллектуальные системы (ИС), которые должны быть разработаны таким образом, чтобы обеспечивать надежность, безопасность, эффективность и продуктивность при их использовании.

Российский доверенный искусственный интеллект будут экспортировать в дружественные страны

К основным свойства доверенного ИИ относят ряд функций, которые должны включать в себя ИТ-системы. Доверенный ИИ должен предсказуемо работать без сбоев или ошибок, особенно в ситуациях неопределенности. Системы доверенного ИИ должны быть защищены от взломов и кибератак. Технология должна быстро и точно выполнять задачи с использованием доступных ресурсов, таких как процессорное время, память и энергия. Доверенные ИТ-системы должны быть направлены на максимальное повышение производительности труда пользователей. Возможность использования систем ИИ с обеспечением человеческого надзора и контроля над поведением и результатами. Разработчики и пользователи доверенного ИИ должны иметь доступ к информации о его функционировании и принятии решений. Использование механизмов защиты и контроля доступа к собираемым и генерируемым данным. Внедрение методов проверки предвзятости и учета интересов всех, на кого распространяются ИИ-системы. Принципы взаимодействия между людьми и ИИ-системами, расширяющие возможности людей, а не наоборот. В России к таким ИТ-платформам могут относиться разработки компаний Сбербанк и «Яндекс».

Предполагается, что распространением отечественных ИИ-продуктов за пределами России займутся стартапы (через маркетплейсы), медийные компании, выездные миссии и участники выставок. Кроме того, продвигать российский доверенный ИИ планируется в формате хакатонов, в том числе на международных площадках. Для стимулирования разработчиков государство готовит меры поддержки в виде грантов на вычислительные мощности и льготных кредитов при субсидировании ставки до 2%.

История развития

Широкий интерес к внедрению ИИ-технологий в мире привел к необходимости изучать и учитывать новые риски и угрозы, специфичные для них, включая переобучение, дрейф данных, предвзятость обученной модели, выбросы данных.

Начала общего развития машинного обучения (ML) и подходов к ИИ, основанных на данных с начала 2000 г. вызывала обеспокоенность по поводу этического использования ИИ, потому что это начала приобретать все большее значение. Исследователи начали сосредоточиваться на таких проблемах, как предвзятость в ИИ-алгоритмах.

Прозрачность и объяснимость ИИ-технологий с 2011 по 2021 гг. стали важнейшими аспектами доверенного ИИ. Исследователи работали над тем, чтобы сделать системы ИИ более понятными и подотчетными для пользователей и заинтересованных сторон. Ведь ИИ-системы, особенно нейронные сети, можно легко обмануть, добавив небольшие искажения во входные данные. Эти возмущения, известные как состязательные примеры, могут привести к тому, что ИИ-модели будут делать неверные прогнозы. В ответ на растущую угрозу состязательных атак исследователи начали разрабатывать методы защиты от них.

Использование ИИ предоставляет новые возможности для проведения специализированных кибератак хакеров. К таким ИТ-атакам относятся отравление данных, внедрение закладок, кража обучающих данных, состязательные атаки, кража конфиденциальной информации, внедрение зловредного кода в модель и кража самих моделей. Современные исследователи в области доверенного ИИ занимаются изучением этих проблем, способов противодействия, а также выработкой стандартов безопасности и этики в этой области.

Помимо соответствия законам о конфиденциальности и защите прав потребителей, надежные ИИ-модели проверяются на безопасность, защищенность и смягчение нежелательной предвзятости. Они также прозрачны - предоставляют информацию, такую как контрольные показатели точности или описание набора данных для обучения - различным аудиториям, включая регулирующие органы, разработчиков и потребителей. Свобода использования общедоступных ИИ-алгоритмов создает огромные возможности для позитивного применения, но это также означает, что ИИ может быть использован и с целью различных правонарушений.

Комментарии