Выбирай : Покупай : Используй

Вход для партнеров

Вход для продавцов

0

Microsoft закрывает доступ к своим ИИ-разработкам распознавания лиц и генерации голоса

Компания Microsoft опубликовала новые правила использования своих разработок, связанных с искусственным интеллектом. Доступ к тем из них, что позволяют создавать «рискованные» решения, будет жестко ограничен.

Опасный ИИ

Корпорация Microsoft приняла решение ограничить использование некоторых инструментов для разработки проектов, связанных с искусственным интеллектом.

Во вторник компания опубликовала документ под названием «Стандарт ответственного использования ИИ», в котором указывается, что Microsoft приложит все усилия для минимизации возможного вреда от инструментов машинного обучения. Для этого вводятся более жесткие правила использования инструментария, разработанного Microsoft.

«Растет необходимость в практическом руководстве этого типа, — заявила директор подразделения по ответственному использованию ИИ Наташа Крэмптон (Natasha Crampton). — ИИ становится все более значимой частью наших жизней, в то время как гражданское законодательство отстает от этого процесса. Законодатели не успевают ни за уникальными угрозами, которые создает ИИ, ни за потребностями общества. Хотя мы видим, что правительственные органы все внимательнее присматриваются к ИИ, мы также понимаем, что чувство ответственности заставляет нас принимать свои собственные меры. Мы убеждены, что системы искусственного интеллекта должны реализовываться ответственно с проектного уровня».

На практике это означает следующее: Microsoft ограничивает доступ к инструментарию в Azure, который позволяет создавать решения по распознаванию пола и возраста людей по их изображениям на основе Face API. На средства распознавания эмоций людей по их видео или фотографиям также вешается замок. Новые пользователи Azure не смогут больше получать доступ к FaceAPI, а существующим пользователям рекомендовано до 30 июня 2023 г. мигрировать на другие сервисы. После этой даты Face API будет официально закрыт.

Microsoft ограничивает доступ к «опасному» ИИ-инструментарию, в частности по распознаванию лиц

Впрочем, функции этого API сохранятся в других сервисах, в частности Seeing AI — приложении для слабовидящих, которое идентифицирует и описывает голосом людей и объекты.

Использование голоса только с письменного согласия

Microsoft также планирует ограничить доступ к другим «рискованным» инструментам. В частности, ограничения коснутся средств распознавания лиц в целом и генерации реалистичного звука голоса. Доступ к таким инструментам теперь будет осуществляться по предварительной заявке, и решение, предоставлять доступ или нет, будет зависеть от того, сочтут ли проект потенциально вредным. Существующим пользователям также потребуется получить разрешение на то, чтобы продолжать пользоваться этими инструментами — до 30 июня 2023 г.

Имитация чьего-то голоса с использованием генеративных ИИ-моделей с помощью решения Custom Neural Voice теперь будет считаться допустимой только при условии однозначного письменного разрешения со стороны оригинального обладателя этого голоса и, в некоторых случаях, записанного устного заявления о согласии. Это делается в целях борьбы с дипфейками, которые потенциально можно использовать и для кибератак.

Ужесточаются и условия использования средств распознавания лиц: для слежки за людьми их использовать запрещено в любом случае.

Еще в 2020 г. на фоне скандалов с неправомерным использованием системы ClearView AI Microsoft объявила, что прекращает продажи средств распознавания лиц правоохранительным органам и даже инвестировать в такие средства в принципе.

Сейчас в компании говорят, что нынешний период — критический для установления правил использования рискованных средств ИИ и стандартов ответственной разработки.

«Microsoft, как и любая другая компания, вправе ограничивать использование своих разработок по собственному усмотрению, в контексте ИИ или вне него, — говорит Алексей Водясов, технический директор компании SEQ. — Инициативы по установлению правил игры в этом поле можно только приветствовать, вопрос лишь в том, пойдут ли на это другие игроки. Не только западные компании разрабатывают средства ИИ, в том числе такие, которые в Microsoft считают опасными. Безусловно, все бы только выиграли от появления общемировых стандартов безопасной и ответственной разработки ИИ, но до их появления пройдет еще очень много времени».