Без лица. Как дипфейки стали оружием в руках мошенников.

23/11/2021

Без лица. Как дипфейки стали оружием в руках мошенников.

Как суды будут реагировать на такие ситуации?

Адвокат Князев Андрей Геннадиевич

Председатель Московской коллегии адвокатов "Князев и партнеры"

Данная проблема - следствие, мы вырабатываем новых технологии, но при этом, злоумышленники, изучив их, вырабатывают новые методы обмана систем - защиты, пользуются ими и подделывают "под себя". Определенно на данный момент имеются попытки имитации голосов, даже попытки взломать "face-id", специалисты, вырабатывающие систему - защиты предусматривают подобные следствия и блокируют попытки. Тема информационной безопасности в глобальном смысле всегда актуально, особенно в сейчас, когда банки и т.п. предлагают вариации идентификации и при этом, в большинстве своем это совокупность (пароль, привязка к номеру, голос, отпечаток и т.п.), как и было сказано ранее, создатели подобных систем продумывают коды, защиты и системного помощника, который определяет настоящий голос от имитированного довольно просто, поэтому взломать и воспользоваться аккаунтом нелегко, в особенности с совокупностью безопасности.


Михаил Хохолков, ведущий юрист юридической фирмы INTELLECT

Дипфейк (deepfake) — это термин, производный от выражений «глубинное обучение» (deep learning) и «ненастоящее», «подделка», «фейк» (fake).

Если говорить упрощенно, то глубинное обучение — это методы и системы обучения искусственного интеллекта, которые основаны на изучении большого объема данных. С помощью анализа и обработки создаются точные копии сложных объектов, например, лица человека или его голоса. Затем с помощью другой технологии, называемой Generative Adversarial Network (GAN,) можно создать видео, на котором образ одного человека будет заменен на образ другого. Так и получаются дипфейк-видео, на которых фейкового персонажа непросто отличить от оригинала. 

Кажется, любая новая технология вызывает массу вопросов и дискуссий — как морально-этических, так и правовых.

На законодательном уровне в России проблема дипфейков пока никак не урегулирована. Это означает, что если сейчас суду придется разбираться в цифровой подделке, то придется применять текущие правовые нормы. Это возможно. 

Предположим, что с помощью дипфейка в видео была распространена недостоверная информация. 

Судебный процесс всегда состязательный. Это означает, что каждая сторона доказывает те обстоятельства, на которые ссылается. Для разных категорий споров распределяется только бремя доказывания.

Например, в делах о защите деловой репутации истец должен доказать факт распространения и порочащий характер информации. Ответчик по общему правилу доказывает достоверность информации. В ситуации с фейковым видео задача ответчика — доказать, что видео подделано.

Сделать это можно с помощью экспертизы. Ответчик в нашем примере должен указать на весомые доводы, свидетельствующие о подделке, и ходатайствовать перед судом о назначении судебной экспертизы. 

Некоторые признаки подделки видны невооруженным глазом. К примеру, неожиданно возникающие или пропадающие предметы в кадре или неестественные интонации в голосе, неестественная мимика. На такие признаки нужно указать, мотивируя необходимость назначения экспертизы.

Пока дипфейки — не самая развитая технология, поэтому техническая экспертиза сможет убедить суд в наличии стороннего вмешательства в видео. 

Но проблема в другом. Судебная защита не работает на опережение или предотвращение ущерба. Речь идет только о компенсации уже причиненного вреда.

А в ситуации с недостоверной информацией важна оперативность пресечения ее дальнейшего распространения. Это можно сделать только с помощью правоохранительных органов.

Текущее состояние законодательства допускает внесудебную блокировку недостоверной общественно-значимой информации: весной 2020 года был принят так называемый «закон о фейк-ньюс». Закон № 149-ФЗ «Об информации, информационных технологиях и о защите информации» не различает форматы изложения фейковых сведений. Поэтому если дипфейк в видеоформате будет создавать ситуацию угрозы причинения вреда жизни или здоровью граждан, то по решению прокуратуры он будет заблокирован.

По мере развития технологий будет формироваться правоприменительная практика и должно совершенствоваться законодательство. Поэтому в скором времени мы услышим о первых российских судебных процессах, так или иначе связанных с дипфейками, и увидим законодательные инициативы, регулирующие это явление.


Анастасия Шеляшкова, адвокатское бюро «Коблев и Партнеры»

Полагаю, что судебная практика в данном случае, как и по иным преступлениям, совершенным в киберпространстве, первое время будет неоднозначная. Любые новые способы совершения преступлений, связанные прежде всего с компьютерными технологиями, вызывают сложность не только в квалификации, но и в определении подследственности и подсудности таких преступлений. Разрешение данной категории дел, безусловно, требует специальных познаний в сфере искусственного интеллекта и кибербезопасности, поэтому будет сопровождаться проведением многочисленных судебных экспертиз, оценка которых в значительной степени усложняет судебное следствие. Чтобы можно было говорить о векторе судебной практики по делам, в которых преступление совершено с помощью технологии Deepfake, необходимо проанализировать хотя бы пару-тройку судебных решений, в которых будет продемонстрирован уровень доверия судебной системы к заключениям экспертов, оценка установления причинно-следственной связи в результате расследования. На данный момент в нашей стране такого рода судебная практика отсутствует. Исходя из того, как растет популярность использования технологии Deepfake в качестве способа совершения преступления за рубежом, вероятнее всего в скором времени и на территории Российской Федерации можно будет наблюдать подобного рода уголовные дела. Безусловно, в первую очередь в процессе расследования таких преступлений будет необходимо установить факт использования технологии Deepfake, чтобы исключить судебную ошибку в виде осуждения реального человека, модель которого была создана с помощью искусственного интеллекта для совершения преступления. В виду того, что деяния с использованием технологии Deepfake совершаются в сети Интернет, можно предположить, что развитие судебной практики будет схоже с постепенно формирующейся судебной практикой по иным преступлениям, совершенным в киберпространстве, а следовательно, будет испытывать острую необходимость в реакции Высшей судебной инстанции в форме разъяснений.