В конце мая мужчина из Баотоу, Китай стал жертвой мошенничества с видеозвонком от дипфейка своего друга. Мошенник уговорил пострадавшего перевести ему более 4-х миллиона юаней ($ 620 тысяч). «Другу» не хватало этой суммы для залога на торгах. Потерпевший понял, что его обманули, когда его настоящий друг не смог вспомнить звонка.
Местная полиция сообщила в официальном заявлении, что им удалось вернуть большую часть украденных денег, и они усердно пытаются вернуть оставшуюся сумму.
В эпоху технологического прогресса и развития искусственного интеллекта многие отрасли претерпевают трансформацию. Наряду с многочисленными возможностями для развития, образования человека, ИИ также становится отличным инструментом для аферистов.
А цифровизация присит нам новые опасности: то тут, то там происходит утечка данных, которые потом используют цифровые мошенники. В этом им помогает технология дипфэйк, с помощью которой можно подделать любую личность.
Создание фальшивок (deepfake) очень опасная технология, которая продолжает развиваться. Уже сейчас качественную подделку сложно отличить от оригинала, потому что некоторые о такой технологии даже не слышали. Аудио фальшивки распознать еще сложнее.
Создание подделок представляют угрозу не только для отдельных людей, но и для общества, на уровне государства. Когда манипуляции в СМИ, где «президент», например, может объявить военное положение вызовет не только хаос в стране, но и ответную реакцию лидеров других стран.
ИИ алгоритмы анализируют и обучаются на основе огромного количества данных, чтобы генерировать очень реалистичные и убедительные формы контента. Разницу между живым человеком и сгенерированной копией не заметить невооруженным глазом.

Что называют «глубокой подделкой»
Технология «deepfake» представляющая собой сочетание "глубокого обучения"(deeplearning) и "подделок«(fake) становится разрушительной силой. Дип фэйки — это, как правило, видео или изображения, созданные с помощью алгоритмов ИИ, известных как генеративно-состязательные сети (G A N).
Основа механизма G A N строится на «косвенном» обучении через дискриминатор, еще одну нейронную сеть. В составе G A N — их две: генератор и дискриминатор. Последняя анализирует образцы генератора — насколько «реалистичным» кажется ввод, который динамически обновляется. Получается задача генерирующей сети обмануть дискриминирующую, чтобы невозможно было отличить подлинный образец от поддельного. Такой хитрый механизм позволяет модели обучаться без присмотра.
С помощью технологии фальсификации можно легко накладывать чье-то лицо на тело другого человека, изменять мимику, имитировать голоса или даже создавать полностью сфабрикованные сценарии поведения.
В чём вред?
Потенциальная опасность глубоких подделок заключается в их способности стирать грань между реальностью и вымыслом.
Еще один пример: в конце мая сгенерированное ИИ изображения атаки на Пентагон обрушило финансовые рынки.
Такие фейки способны вызвать широкомасштабные волнения, панику, нанести ущерб репутации компаний, подстрекать к социальным беспорядкам. Более того, фальшивки могут использовать для: политической пропаганды, кампаний по дезинформации или даже для подрыва общественного доверия к учреждениям.

Как обнаружить «фальсификацию человека»
К счастью, исследователи и технологические эксперты активно разрабатывают инструменты и методы для обнаружения фейков и защиты общества от их вредоносного использования. Эти методы часто опираются на передовые алгоритмы искусственного интеллекта, использующие машинное обучение для анализа и выявления характерных признаков манипуляции.
Некоторые распространенные методы обнаружения включают: выявление неестественной мимики, анализ цветовых изменений кожи на лице, вызванные кровотоком, которые бывают только у реального человека.Нейросети изучают цвет лица и на основе данных рисуют своеобразную карту. Затем определяют с помощью глубокого обучения живой человек на видео или подделка.
По мере развития технологий, лежащих в основе дип фэйков, развиваются и контрмеры. Такие системы ИИ как Content Authenticity Initiative и Project Origin используются для выявления подлинности контента.
Безобидная шутка уже не так безобидна
Освоив технологию, некоторые уже прибегают к помощи дипфейков: скрывают свою личность в прямом эфире во время трансляции. Также — участвуя в видео звонке или на встрече в Зуме, при собеседовании для устройства на работу, дистанционных экзаменов...
Для борьбы с растущей угрозой глубоких подделок очень важно, чтобы люди больше знали об их существовании и потенциальной угрозе. Нельзя недооценивать потенциальную опасность. Особенно уязвимая возрастная группа — это пожилые люди. «Сотрудники сбербанка» менее опасны, чем дипфэйк любимого внука, которому срочно нужно помочь и отправить деньги...
Образовательные программы цифровой грамотности помогут людям распознать признаки манипуляции и развить навыки критического мышления. Кроме того, следует быть осторожным при потреблении любого контента. Верификация информации через разные авторитетные источники и организации, программы, занимающиеся проверкой фактов, крайне важна в нашем мире. Поскольку ИИ призван заменить труд алгоритмических креаторов, сотрудников контакт-центра, low code программистов, кассиров, таксистов... и т.д.
Если у вас возникли подозрения
Попробуйте воспроизвести видеоролик очень медленно — маска расплывется и вы увидите глюк.
Не уверены в собеседнике, с которым общаетесь в видеочате? Попросите его повернуть голову в сторону или провести рукой по лицу! Внезапно четкие очертания лица пропадут...
