Качество дипфейков, создаваемых с помощью искусственного интеллекта, значительно возросло в 2025 году.
Лица, голоса и движения тел, которые ИИ генерирует, имитируя реальных людей, превзошли ожидания многих экспертов; эти материалы всё чаще используются для обмана людей, сообщает OGlavnom.
В повседневном общении, будь то видеозвонки низкого разрешения или медиаконтент в соцсетях, качество ИИ-дипфейков стало достаточно высоким, чтобы вводить в заблуждение обычных пользователей. Количество дипфейков выросло с 500 тыс. в 2023 году до около 8 млн в 2025 году, по данным DeepStrike, что составляет рост приблизительно 900 % за год.
Рост этих показателей обусловлен несколькими важными техническими достижениями. Во-первых, генерируемые ИИ материалы отличаются удивительной согласованностью: люди в кадре правдоподобно движутся, их легко узнать, а содержание видео остаётся осмысленным в каждом фрагменте. Модели отделяют информацию о личности от информации о движении, позволяя одной и той же личности демонстрировать различные типы движений, а также обеспечивают отсутствие мерцаний и деформаций изображений лиц, которые ранее указывали на дипфейки.
Во-вторых, качество клонирования голоса достигло уровня, при котором для создания убедительной имитации достаточно всего нескольких секунд. Имитация голоса включает естественную интонацию, ритм, акцент, эмоции и даже шум дыхания, что создаёт огромные возможности для массового мошенничества. Ранее заметные отличия синтетических голосов в значительной степени исчезли.
Технический барьер для работы с генераторами контента снизился практически до нуля — с помощью OpenAI Sora 2 и Google Veo 3, а также моделей некоторых стартапов любой пользователь может сформулировать идею и за считанные минуты сгенерировать качественный контент при помощи ИИ-агентов. Это значительно демократизирует возможность создания связных дипфейков на большом масштабе.
Определять дипфейки, неотличимые от реальных людей, в социальных сетях становится всё сложнее, так как внимание пользователей разрозненно, а материалы распространяются быстрее, чем их можно проверить. Дипфейки применяются для дезинформации, преследования и финансовых махинаций, оставляя людям недостаточно времени для реакции.
Перспективы на следующий год ясны: дипфейки стремятся к генерации контента в реальном времени. Видеоролики будут максимально точно имитировать нюансы внешности человека и способны обойти системы обнаружения. Переход с статического визуального реализма на динамичную согласованность по времени и поведению делает контент более информативным и реалистичным.
Результат превзойдёт простое узнавание — персонажи на видеороликах будут вести себя как их реальные прототипы. Участники видеозвонков смогут синтезироваться в реальном времени, их лица, голоса и манеры будут адаптированы мгновенно, а мошенники вместо записанных материалов станут показывать своим жертвам подобные ИИ-аватары.
Для защиты от таких дипфейков нельзя полагаться на субъективное восприятие — необходимы технические средства защиты, такие как криптографическая подпись подлинных материалов и маркировка средств ИИ-редактирования. Даже глубокий анализ картинки на уровне пикселей может оказаться недостаточным.
