support@matomba.ru
Свежее SEOSMMБизнесДизайнИнвестицииРекламаСтартапыТехнологииЮриспруденция

Тёмная сторона инноваций

Ирина06.06.2023 в 21:053 мин. 45 сек.84102
Тёмная сторона инноваций
Вы когда-нибудь смотрели видео и подозревали, что это подделка? А человек на видео был какой-то не естественный?

В конце мая мужчина из Баотоу, Китай стал жертвой мошенничества с видеозвонком от дипфейка своего друга. Мошенник уговорил пострадавшего перевести ему более 4-х миллиона юаней ($ 620 тысяч). «Другу» не хватало этой суммы для залога на торгах. Потерпевший понял, что его обманули, когда его настоящий друг не смог вспомнить звонка. 

Местная полиция сообщила в официальном заявлении, что им удалось вернуть большую часть украденных денег, и они усердно пытаются вернуть оставшуюся сумму. 

В эпоху технологического прогресса и развития искусственного интеллекта многие отрасли претерпевают трансформацию. Наряду с многочисленными возможностями для развития, образования человека, ИИ также становится отличным инструментом для аферистов.

А цифровизация присит нам новые опасности: то тут, то там происходит утечка данных, которые потом используют цифровые мошенники. В этом им помогает технология дипфэйк, с помощью которой можно подделать любую личность. 

Создание фальшивок (deepfake) очень опасная технология, которая продолжает развиваться. Уже сейчас качественную подделку сложно отличить от оригинала, потому что некоторые о такой технологии даже не слышали. Аудио фальшивки распознать еще сложнее.

 Создание подделок представляют угрозу не только для отдельных людей, но и для общества, на уровне государства. Когда манипуляции в СМИ, где «президент», например, может объявить военное положение вызовет не только хаос в стране, но и ответную реакцию лидеров других стран.  

ИИ алгоритмы анализируют и обучаются на основе огромного количества данных, чтобы генерировать очень реалистичные и убедительные формы контента. Разницу между живым человеком и сгенерированной копией не заметить невооруженным глазом. 

.

Что называют «глубокой подделкой»

Технология «deepfake» представляющая собой сочетание "глубокого обучения"(deeplearning) и "подделок«(fake) становится разрушительной силой. Дип фэйки — это, как правило, видео или изображения, созданные с помощью алгоритмов ИИ, известных как генеративно-состязательные сети (G A N). 

Основа механизма G A N строится на «косвенном» обучении через дискриминатор, еще одну нейронную сеть. В составе G A N — их две: генератор и дискриминатор. Последняя анализирует образцы генератора — насколько «реалистичным» кажется ввод, который динамически обновляется. Получается задача генерирующей сети обмануть дискриминирующую, чтобы невозможно было отличить подлинный образец от поддельного. Такой хитрый механизм позволяет модели обучаться без присмотра. 

С помощью технологии фальсификации можно легко накладывать чье-то лицо на тело другого человека, изменять мимику, имитировать голоса или даже создавать полностью сфабрикованные сценарии поведения.

В чём вред?

Потенциальная опасность глубоких подделок заключается в их способности стирать грань между реальностью и вымыслом.

Еще один пример: в конце мая сгенерированное ИИ изображения атаки на Пентагон обрушило финансовые рынки.

Такие фейки способны вызвать широкомасштабные волнения, панику, нанести ущерб репутации компаний, подстрекать к социальным беспорядкам. Более того, фальшивки могут использовать для: политической пропаганды, кампаний по дезинформации или даже для подрыва общественного доверия к учреждениям. 

.

Как обнаружить «фальсификацию человека»

К счастью, исследователи и технологические эксперты активно разрабатывают инструменты и методы для обнаружения фейков и защиты общества от их вредоносного использования. Эти методы часто опираются на передовые алгоритмы искусственного интеллекта, использующие машинное обучение для анализа и выявления характерных признаков манипуляции.

Некоторые распространенные методы обнаружения включают: выявление неестественной мимики, анализ цветовых изменений кожи на лице, вызванные кровотоком, которые бывают только у реального человека.

Нейросети изучают цвет лица и на основе данных рисуют своеобразную карту. Затем определяют с помощью глубокого обучения живой человек на видео или подделка. 

По мере развития технологий, лежащих в основе дип фэйков, развиваются и контрмеры. Такие системы ИИ как Content Authenticity Initiative и Project Origin используются для выявления подлинности контента. 

Безобидная шутка уже не так безобидна

Освоив технологию, некоторые уже прибегают к помощи дипфейков: скрывают свою личность в прямом эфире во время трансляции. Также — участвуя в видео звонке или на встрече в Зуме, при собеседовании для устройства на работу, дистанционных экзаменов... 

Для борьбы с растущей угрозой глубоких подделок очень важно, чтобы люди больше знали об их существовании и потенциальной угрозе. Нельзя недооценивать потенциальную опасность. Особенно уязвимая возрастная группа — это пожилые люди. «Сотрудники сбербанка» менее опасны, чем дипфэйк любимого внука, которому срочно нужно помочь и отправить деньги...

Образовательные программы цифровой грамотности помогут людям распознать признаки манипуляции и развить навыки критического мышления. Кроме того, следует быть осторожным при потреблении любого контента. Верификация информации через разные авторитетные источники и организации, программы, занимающиеся проверкой фактов, крайне важна в нашем мире. Поскольку ИИ призван заменить труд алгоритмических креаторов, сотрудников контакт-центра, low code программистов, кассиров, таксистов... и т.д.

Если у вас возникли подозрения

Попробуйте воспроизвести видеоролик очень медленно — маска расплывется и вы увидите глюк.

Не уверены в собеседнике, с которым общаетесь в видеочате? Попросите его повернуть голову в сторону или провести рукой по лицу! Внезапно четкие очертания лица пропадут...

.
Лого matomba.info
Новые публикации
Задать вопрос