Внедрение сертификации
Доверенный ИИ будут популяризировать за рубежом, следует из одной из рабочих версий презентации мероприятий готовящегося федерального проекта «Искусственный интеллект» национального проекта «Экономика данных и цифровая трансформация государства». Об этом в конце августа 2024 г. сообщило издание «Ведомости».
Документ есть в распоряжении «Ведомостей», его подлинность подтвердили собеседник в одной из ИТ-компаний и источник, близкий к Министерству цифрового развития, связи и массовых коммуникаций (Минцифры) России. По словам второго, это не окончательная версия документа и он уже был переработан, но идея экспортировать отечественный ИИ в дружественные страны по-прежнему актуальна.
ИИ, как и любая преобразующая технология, находится в процессе разработки — его возможности и влияние на общество постоянно растут. Надежные инициативы в области ИИ признают реальные эффекты, которые ИИ может оказывать на людей и общество, и стремятся ответственно направлять эту силу для позитивных изменений. Концепция доверенного ИИ предусматривает интеллектуальные системы (ИС), которые должны быть разработаны таким образом, чтобы обеспечивать надежность, безопасность, эффективность и продуктивность при их использовании.
К основным свойства доверенного ИИ относят ряд функций, которые должны включать в себя ИТ-системы. Доверенный ИИ должен предсказуемо работать без сбоев или ошибок, особенно в ситуациях неопределенности. Системы доверенного ИИ должны быть защищены от взломов и кибератак. Технология должна быстро и точно выполнять задачи с использованием доступных ресурсов, таких как процессорное время, память и энергия. Доверенные ИТ-системы должны быть направлены на максимальное повышение производительности труда пользователей. Возможность использования систем ИИ с обеспечением человеческого надзора и контроля над поведением и результатами. Разработчики и пользователи доверенного ИИ должны иметь доступ к информации о его функционировании и принятии решений. Использование механизмов защиты и контроля доступа к собираемым и генерируемым данным. Внедрение методов проверки предвзятости и учета интересов всех, на кого распространяются ИИ-системы. Принципы взаимодействия между людьми и ИИ-системами, расширяющие возможности людей, а не наоборот. В России к таким ИТ-платформам могут относиться разработки компаний Сбербанк и «Яндекс».
Предполагается, что распространением отечественных ИИ-продуктов за пределами России займутся стартапы (через маркетплейсы), медийные компании, выездные миссии и участники выставок. Кроме того, продвигать российский доверенный ИИ планируется в формате хакатонов, в том числе на международных площадках. Для стимулирования разработчиков государство готовит меры поддержки в виде грантов на вычислительные мощности и льготных кредитов при субсидировании ставки до 2%.
История развития
Широкий интерес к внедрению ИИ-технологий в мире привел к необходимости изучать и учитывать новые риски и угрозы, специфичные для них, включая переобучение, дрейф данных, предвзятость обученной модели, выбросы данных.
Начала общего развития машинного обучения (ML) и подходов к ИИ, основанных на данных с начала 2000 г. вызывала обеспокоенность по поводу этического использования ИИ, потому что это начала приобретать все большее значение. Исследователи начали сосредоточиваться на таких проблемах, как предвзятость в ИИ-алгоритмах.
Прозрачность и объяснимость ИИ-технологий с 2011 по 2021 гг. стали важнейшими аспектами доверенного ИИ. Исследователи работали над тем, чтобы сделать системы ИИ более понятными и подотчетными для пользователей и заинтересованных сторон. Ведь ИИ-системы, особенно нейронные сети, можно легко обмануть, добавив небольшие искажения во входные данные. Эти возмущения, известные как состязательные примеры, могут привести к тому, что ИИ-модели будут делать неверные прогнозы. В ответ на растущую угрозу состязательных атак исследователи начали разрабатывать методы защиты от них.
Использование ИИ предоставляет новые возможности для проведения специализированных кибератак хакеров. К таким ИТ-атакам относятся отравление данных, внедрение закладок, кража обучающих данных, состязательные атаки, кража конфиденциальной информации, внедрение зловредного кода в модель и кража самих моделей. Современные исследователи в области доверенного ИИ занимаются изучением этих проблем, способов противодействия, а также выработкой стандартов безопасности и этики в этой области.
Помимо соответствия законам о конфиденциальности и защите прав потребителей, надежные ИИ-модели проверяются на безопасность, защищенность и смягчение нежелательной предвзятости. Они также прозрачны - предоставляют информацию, такую как контрольные показатели точности или описание набора данных для обучения - различным аудиториям, включая регулирующие органы, разработчиков и потребителей. Свобода использования общедоступных ИИ-алгоритмов создает огромные возможности для позитивного применения, но это также означает, что ИИ может быть использован и с целью различных правонарушений.