В чем опасность дипфейков?
Дипфейки (от англ. deepfakes) представляют собой технологию синтеза изображений и видео с использованием искусственного интеллекта.
Эта технология позволяет создавать реалистичный контент, в котором меняется лицо на видео, подделывается голос или изображение с кем-либо.
Такие фейки зачастую используют, чтобы искусственно манипулировать данными реально существующей личности.
Дипфейки становятся опасны
Дипфейки получают широкое распространение, иногда оно весьма безобидно и положительно.
К примеру, компания State Farm выпустила рекламный ролик, на котором человек, в прошлом работавший аналитиком, делал прогнозы, с точностью описывающие настоящее время. Как это могло произойти? Да, с помощью технологии дипфейков. Видеоролик создали в настоящее время в развлекательных целях, как и множество других роликов, которые становятся интернет-мемами и развлекают пользователей.
Но у этой технологии есть и огромная негативная сторона — теперь можно создать видео, на котором люди будут говорить то, чего никогда не произносили на самом деле. Или даже делать.
Подменить можно лицо, голос, все это может выглядеть очень естественно и ввести в заблуждение огромное количество людей, которые не знакомы с этой технологией.
Генеративно-состязательные сети (GAN) представляют собой основную технологию, лежащую в основе создания дипфейков.
GAN были впервые созданы в 2014 году, чтобы генерировать контент, который похож на настоящий. Они состоят из двух основных компонентов: генератора и дискриминатора.
Процесс обучения GAN происходит в форме состязания между генератором и дискриминатором. Генератор старается создавать контент, который дискриминатор не может отличить от настоящего, в то время как дискриминатор улучшает свою способность распознавать различия.
Применение GAN для создания дипфейков позволяет достаточно реалистично подделывать различные аспекты медиаконтента. Такие системы могут быть обучены на больших объемах данных, включающих изображения, видео и аудиозаписи, чтобы создавать обманчиво реалистичный материал, который трудно отличить от подлинного.
Из-за фейковых видео может возникнуть национальная вражда, они могут в будущем влиять на политику и решения, которые принимают люди, дипфейки создают огромные проблемы для суда, ведь поддельный видеоролик может быть задействован как доказательство для обвинения невиновного или его фейкового признания собственной вины.
Сейчас дипфейки в основном используются мошенниками, которые пользуются доверием людей для хищения денежных средств, создавая поддельный голос и фото, чтобы с их помощью доказать свою легенду жертве обмана.
Видео-дипфейки обманывают людей
Видео, которые создаются с помощью дипфейков, могут наносить репутационный и материальный ущерб.
В США был создан видеоролик, на котором бывший президент Барак Обама говорит о кандидате в президенты Трампе, нецензурно ругаясь. Существует и видео, в котором популярная певица Тейлор Свифт рекламирует столовую утварь, к которой не имеет никакого отношения. Также было создано видео, на котором премьер-министр Бельгии связывает прошедшую эпидемию с изменением климата и призывает обратить внимание на экологические движения.
Эти видео были сделаны без согласия личностей, которых в них использовали, и за счет них авторы могли влиять на массы или получать материальную выгоду.
Видео дипфейки распространяются с огромной скоростью.
По отчету Deeptrace всего за девять месяцев 2019 года их количество возросло вдвое, сейчас, с появлением новых возможностей, количество таких видео продолжает расти быстрее и быстрее.
Многие обеспокоены тем, что количество поддельных видео увеличивается, а их качество улучшается.
Если раньше такие видео-фейки были скорее плохой шуткой, то сейчас многие из них выглядят так правдоподобно, что это вводит людей в заблуждение. Это вызывает логичные опасения по поводу того, что технологии по распознаванию дипфейков не смогут успеть за их развитием.
В 2018 году было выпущено исследование, согласно которому в дипфейковых видео люди редко моргают, но уж тогда этот недостаток был исправлен авторами фейк-контента. Скорость развития подделок растет слишком быстро, беря на вооружение обнаруженные недостатки и исправляя их.
Как выявить дипфейк? Как проверить видео на подлинность?
Даже сейчас проектов, которые бы занимались изучением подделок, не так много.
Компания Intel представила инновационную технологию FakeCatcher, обещая высокую точность в обнаружении дипфейков.
FakeCatcher основан на генеративно-состязательных сетях (GAN), как и сами дипфейки.
Ключевой особенностью технологии является ее способность обнаруживать дипфейки в реальном времени с точностью, заявленной в 96%.
Одной из инноваций FakeCatcher является использование цветовых изменений кожи, вызванных кровотоком, в процессе обнаружения поддельных видео.
Этот метод основан на физиологических процессах, которые сложно точно имитировать в фальшивых материалах.
Технология анализирует цвет лица, глубокое обучение позволяет определить, является ли человек на видео реальным или поддельным.
Intel предлагает несколько сценариев использования FakeCatcher.
Одним из них является модерация в социальных сетях, где технология может автоматически обнаруживать и удалять поддельный контент.
Вопрос о доступности FakeCatcher для широкой публики остается открытым, поэтому в настоящий момент самым надежным способом проверки видео на подлинность является заказ услуги у экспертов.
Аудио-дипфейки — как проверить подлинность аудиозаписи?
Вы уверены в том, что те, с кем вы говорите по телефону, являются настоящими людьми? А ваш знакомый, который позвонил вам, точно ли ваш знакомый?
Обычно мы не придаем телефонным звонкам тревожного значения и используем их, когда нужно обсудить какой-то важный вопрос, к примеру, передать денежные средства или сообщить конфиденциальные данные.
Телефонный разговор считается более надежным, но сейчас все кардинально изменилось.
Перенос голоса, или создание голосовых дипфейков, — метод, который основан на применении автокодировщиков.
Автокодировщики являются типом нейронных сетей, эти сети имеют две основные компоненты: Encoder и Decoder.
- Процесс начинается с того, что Encoder сжимает входные голосовые данные до компактного внутреннего представления. Это представление содержит ключевую информацию о голосе.
- Далее Decoder обучается разжимать данные из этого компактного представления обратно, восстанавливая исходные голосовые данные.
В результате этого процесса модель учится представлять голос в виде сжатой информации, выделяя основные характеристики голоса.
Случаи подделок голосов становятся все более частыми.
Адвокаты сообщают, что мошенники использовали генерацию биометрии блогера, находящегося под стражей, они звонят на номера друзей и родственников публичной личности и просят перевести крупные суммы на указанные карты.
Один из потенциальных пострадавших — отец блогера, которому звонила якобы его дочь, просившая о финансовой помощи.
В 2023 году в Аризоне мошенники воспользовались этой технологией и подделали голос девочке в телефонном звонке ее матери, потребовав выкуп за якобы похищенного ребенка.
Похожий случай произошел и в России, у матери требовали выкуп за похищенного сына, голос которого сымитировали и использовали в звонке как доказательство.
Как можно предотвратить подобные инциденты?
- Важно быть осторожным при получении финансовых запросов через голосовые сообщения. Всегда подтверждайте такие запросы через другие каналы связи, чтобы убедиться в их легитимности.
- Не раскрывайте личные данные в голосовых сообщениях, особенно если они связаны с финансовыми транзакциями.
Мошенники могут использовать поддельные голосовые сообщения, чтобы получить доступ к информации. - Если вы получили подозрительное голосовое сообщение, особенно с финансовыми запросами, то не торопитесь принимать поспешное решение. Если материал касается судебных тяжб или же будет иметь серьезные последствия, то лучше всего обратиться за помощью по установлению подлинности к экспертам.
Поддельные изображения и технология deepfakes
Deepfakes-изображения могут использоваться для различных целей.
Некоторые создают их для развлечения, чтобы заменить актеров в фильмах или вставить свои лица в роли известных личностей. Однако беспокойство возникает, когда эта технология применяется для мошенничества, фальсификации информации или даже для создания компрометирующего контента.
Одной из основных проблем, с которой мы сталкиваемся, является распространение ложной информации. Deepfakes могут быть использованы для создания изображений, в которых люди кажутся делающими что-то, чего они на самом деле не делали. Это создает плодородную почву для дезинформации и способствует созданию иллюзий, влияющих на общественное мнение.
Также важно учитывать возможности мошенничества и обмана, которые предоставляют deepfakes.
Мошенники могут использовать синтезированные изображения для создания фальшивых документов или даже для подделки человеческих лиц при обходе систем биометрической аутентификации.
Технологий, которые смогут в точности распознавать фейковое изображение, сейчас не существует, поэтому в серьезных случаях может помочь экспертное мнение.
Эксперты могут проанализировать изображение на подлинность различными способами, включая ручное выявление неточностей и артефактов, что значительно повышает надежность заключения в сравнении с автоматическими программами, которые лишь учатся обрабатывать информацию.
Возможно ли защитить себя от поддельных аудио, видео и изображений?
Современные технологии, такие как deepfakes и другие средства синтеза контента, поднимают важные вопросы о нашей способности отличать реальность от вымысла.
Вопрос о том, возможно ли защитить себя от поддельных аудио, видео и изображений, становится актуальным в условиях, когда технологические инновации могут быть использованы с целью манипуляции и обмана.
В этом контексте критическое мышление становится ключевым инструментом для защиты от потенциальных неприятностей.
Повышенная осведомленность о возможности существования поддельного контента обязательна для каждого, кто стремится сохранить неприкосновенность своей личной и профессиональной жизни.
Развивая критическое мышление, мы можем обучить себя внимательно проверять информацию, а при необходимости нужно прибегать к помощи экспертов.
Мы готовы помочь в решении любых спорных вопросов, связанных с подлинностью видео, аудио или изображений.
Подписывайтесь на канал ИТ. Право. Безопасность в Telegram