Сейчас в сети наиболее распространены мемы на основе этой технологии: когда на видео лицо одного человека «приклеивают» к изображению другого. Иногда получается очень реалистично и смешно.
Но мы, люди, не стоим на месте. И вот уже «прикольная» технология на наших глазах превращается в инструмент для преступников: дипфейки используются для того, чтобы, например, шантажировать кого-нибудь при помощи поддельных изображений, или для того, чтобы сделать взрослого неузнаваемым в детской порнографии.
А есть еще такое новое явление, как цифровая стеганография — это изображения, на которых с помощью компьютерной обработки злоумышленники шифруют информацию, например, о местонахождении наркотиков.
Нидерландские ученые займутся дипфейками именно в этом контексте: свои усилия объединят Амстердамский университет и Нидерландский Институт судебной экспертизы. Сегодня в среднем компьютерный анализ позволяет распознать примерно восемь поддельных видеороликов из десяти. Задача новой исследовательской группы — добиться стопроцентного результата при определении фальшивых изображений.
Правда, пока, похоже, человечество не слишком осознало опасность и криминальный потенциал этой технологии: сегодня 90% финансирования исследований в этой области идут на совершенствование алгоритмов Deepfake, и лишь 10% — на их распознавание.
Источник: Посольство Нидерландов