Проект об уголовном наказании
Правительство России планирует рассмотреть законопроект об уголовной ответственности до шести лет лишения свободы за совершение преступлений с использованием дипфейков. Документ размещен в середине сентября 2024 г. на сайте нижней палаты парламента.
Авторами законопроекта являются депутат Госдумы от Либерально-демократической партии России (ЛДПР) Ярослав Нилов и сенатор Алексей Пушков. Они предлагают внести поправки в УК, а именно в статьи о клевете, краже, мошенничестве, мошенничестве в сфере компьютерной информации, вымогательстве, причинении имущественного ущерба путем обмана или злоупотребления доверием.
Дипфейк – это видео, созданное с помощью искусственного интеллекта (ИИ). Если упрощенно, нейросеть по пикселям собирает ролик на основе готовых изображений. Например, изучает тысячи фотографий Дэвида Бекхэма (David Beckham) и выпускает видео, на котором спортсмен призывает людей бороться с малярией. Дипфейк изобрел студент Стэнфордского университета Ян Гудфеллоу (Ian Goodfellow) в 2014 г. для разработчиков ИИ, но технология быстро вышла за пределы узкого круга ученых. В настоящее время используют в массовой культуре: от архитектуры до киноиндустрии.
В случае принятия законопроекта наказание за клевету с использованием дипфейков составит до двух лет лишения свободы, а за мошенничество - до шести лет заключения. За вымогательство с применением этой технологии смогут сажать на срок до семи лет, а за причинение имущественного ущерба - на срок до пяти лет. В зависимости от статьи виновным будет грозить штраф в размере до 1,5 млн руб. или в размере зарплаты или иного дохода за период до двух лет, а за мошенничество с использованием дипфейка может грозить штраф до 400 тыс. руб.
Как сказано в пояснительной записке, дополнить УК необходимо в связи с тем, что современные технологии — «использование нейросетей и ИИ (технологии дипфейк, цифровые маски и т.д.)» - позволяют создавать подделки, отличить которые от реальности неспециалисту практически невозможно. За это, по мнению авторов поправок, должна быть предусмотрена дополнительная ответственность.
Отзывы на законопроект уже дали Верховный суд и Правительство России. Как отметили в Верховном суде, авторы поправок не пояснили, почему именно за использование дипфейков при совершении вышеуказанных преступлений (в основном - против собственности), а не каких-либо других, должна следовать повышенная ответственность. Правительство в своем отзыве отметило, что на данный момент в законодательстве не урегулированы вопросы использования технологии дипфейк, что в случае принятия законопроекта может привести к формированию некорректной правоприменительной практики.
Президента России Владимира Путина на пресс-конференции в 2023 г. спросили, есть ли у него двойники и как он относится к опасностям со стороны ИИ и нейросетей. Видеовопросы Путину были заданы при помощи технологии дипфейк с использованием внешности президента, а автор обращения назвался студентом Санкт-Петербургского государственного университета (СПбГУ). Говоря об угрозах, которые может представлять ИИ, Путин отметил, что предотвратить развитие ИИ-технологий невозможно, значит, нужно возглавить. Лидеры в этой сфере начнут договариваться, если возникнут риски для человечества, по аналогии с ядерным оружием, считает Президент России.
Как обманывают с помощью дипфейков
Недавно использование дипфейков было для мошенников слишком затратным, и случаев подобного обмана было немного. Сегодня несложно найти в интернете программное обеспечение (ПО), способное сгенерировать дипфейковые видео- или аудиофайлы. И количество случаев мошенничества с использованием этой технологии растет.
Первый же значительный инцидент произошёл в 2019 г. Директор британской энергетической компании перевел на счет мошенников $243 тыс. по звонку своего руководителя. Мошенникам удалось настолько точно сымитировать голос шефа, что жертва была уверена, что выполняет его поручение.
В начале 2024 г. в российском интернете появился ролик, где женщина отвечает на звонок в мессенджере. Она слышит голос своего сына, который отправляет ей номер телефона и просит перевести на него 1 тыс. руб. на подарок другу, но при этом реальный сын сидит рядом с ней.
В мае 2023 г. китайскому бизнесмену по видеосвязи позвонил человек, который выглядел и говорил, как его близкий друг. Он попросил перевести ему $610 тыс. на оплату гарантий для участия в тендере. Созданный при помощи дипфейк образ был настолько правдоподобен, что бизнесмен выполнил просьбу.
В 2024 г. сотрудник мультинациональной корпорации в китайском Гонконге, пообщавшись по видеосвязи со сгенерированными с помощью дипфейк финансовым директором и другими сотрудниками, перевел мошенникам $25 млн. Обман вскрылся лишь спустя неделю, когда сотрудник сам позвонил в головной офис.