Электронные Следы Преступлений: Открывая Медиа-Криминалистику

 Что такое Медиа-криминалистика в области ИИ? Давайте разбираться!

Эта область знаний — медиа-криминалистика — посвящена изучению манипуляций и правонарушений, осуществляемых с использованием синтетических медиа. В своей сущности, она представляет собой эффективное средство выявления вредоносного контента и борьбы с дезинформацией в средствах массовой информации. Медиа-криминалистика фокусируется на расследовании случаев неэтичного или преступного использования технологии дипфейков.

Термин «дипфейк» происходит от сочетания слов «deep learning» (глубокое обучение) и «fake» (фальшивый). Эта технология способна создавать высококачественные изображения людей в искусственно созданных сценариях. Например, дипфейк может поместить Роберта Паттинсона на палубу съемочной площадки «Титаника» или представить вашего соседа в компании Илона Маска. Несмотря на свою развлекательную сторону, такой контент может привести к серьезным последствиям, и в медиа-криминалистике активно рассматриваются случаи негативного влияния дипфейков в средствах массовой информации.

Весной 2019 года в интернете был опубликован дипфейк, представляющий спикера Палаты представителей США, демократку Нэнси Пелоси. В видео было искусственно создано впечатление, что она медленно говорит, создавая ложное впечатление, будто она находится в состоянии сильного опьянения. Этот контент вызвал волнение и негодование среди республиканских экспертов и политиков, провоцируя почти мгновенное развертывание скандала.

Критика в адрес спикера была бурной, и обсуждение вокруг события началось практически мгновенно. Однако лишь спустя несколько дней стало ясно, что речь Нэнси Пелоси была полностью сгенерирована искусственным интеллектом (ИИ). Эпизод подчеркнул, как дипфейки могут стать инструментом политических манипуляций, а также насколько важно различать факт от манипуляций в цифровом пространстве.

Дипфейк Ареста Дональда Трампа взорвал интернет в марте 2023 года

В марте 2023 года сети взорвались фотографиями, представляющими задержание бывшего президента США, Дональда Трампа. Волнение вокруг события оказалось невероятным, и изображения быстро распространились по социальным сетям и новостным платформам. Однако через несколько дней стало ясно, что эти фотографии были результатом творчества нейросети Midjourney. Несмотря на раскрытие тайны, дипфейк продолжил свою жизнь, оставив за собой след в цифровом пространстве, наполняя его неопределенностью и волнением.

Отчёт международного экономического форума касательно ИИ

Искусственный интеллект также становится инструментом для мошенничества. Преступники используют его для обхода систем аутентификации в банках, обмана служб безопасности и кражи денег со счетов. В 2020 году топ-менеджер японской компании стал жертвой мошенников, переведя им $35 миллионов после того, как получил распоряжение от дипфейка с голосом руководителя корпорации.

Специалисты выражают серьезные опасения по поводу деструктивного влияния дипфейков на политические процессы по всему миру. В отчете Всемирного экономического форума подчеркивается, что искусственный контент может оказывать воздействие на избирателей. С приближением выборов 2024 года в различных странах, включая США, Россию и Индию, эксперты предупреждают о возможности использования фейковых аудио и видеозаписей для манипуляций общественным мнением во время избирательных кампаний.

Представители власти, ученые и разработчики по всему миру активно ищут эффективные способы противостоять негативному влиянию синтетических медиа и дипфейков. В этой статье мы рассмотрим три интересных кейса из этой области борьбы.

Механизм работы дипфейков

Дипфейки становятся всё более высококачественными, и это обусловлено использованием метода глубокого обучения, известного как генеративно-состязательная сеть (GAN). В основе этого метода лежит противостояние двух нейросетей: генератора и дискриминатора. Генератор создает поддельное изображение, а дискриминатор пытается определить, является ли оно настоящим. Качество дипфейка зависит от того, насколько успешно генератор обманывает дискриминатор.

Ранее созданные изображения при использовании GAN обладали низким разрешением, и размытость часто выдавала их как сгенерированные. Однако версия ProGAN справилась с этим ограничением, значительно увеличив разрешение до 1024×1024 пикселей.

Еще одной важной моделью является StyleGAN, которая мастерски создает лица вымышленных людей. Обученная на библиотеке реальных фотопортретов, эта нейросеть стала способной генерировать убедительные человеческие образы.

Как выявляют дипфейки?

Более двух десятилетий назад Министерство Внутренней Безопасности США, совместно с Google и другими организациями, учредило исследовательскую лабораторию, базирующуюся на Университете Буффало. Эта лаборатория представляет собой центр компетенции по судебно-медицинской экспертизе цифровых носителей, таких как фотографии, видео и аудиозаписи. В рамках своей деятельности ученые активно используют методы компьютерного зрения, машинного обучения, медицинской визуализации и робототехники.

Ежегодно лаборатория выпускает несколько исследований, включая работы о поиске методов обнаружения дипфейков. Исследователи осознают, что в мире цифровых манипуляций мошенники также постоянно развиваются. Поэтому лаборатория активно занимается контркриминалистикой - областью, изучающей противодействие методам криминалистики. Она не только борется с текущими формами манипуляций контентом, но и занимается прогнозированием возможных цифровых преступлений. Если вам интересно ознакомится с отчетом то пожалуйста клик сюда, и сюда.

Примеры методов:

  1. Отражение в Зрачках: Эффективный метод, основанный на анализе зрачков. Алгоритм сравнивает зеркальные блики на роговице глаз, где у реального человека узор будет одинаковым, в то время как на фейковых портретах проявляется различие.
  2. Контрастные Области: Этот метод позволяет выявлять точки "сращивания" участков фотографии. Путем анализа контрастных областей специалисты могут доказать, что итоговая картинка собрана из отдельных изображений.
  3. Несоответствие Мимических Реакций: Этот подход сопоставляет мимику дипфейка с естественным движением мышц лица человека. Путем выявления несоответствий в мимических реакциях эксперты могут выявить и документировать искусственные изменения.

Агентство перспективных исследований в области обороны США (DARPA) с 2019 года разрабатывает программы MediFor и SemaFor.

Сервисы помогают автоматически и в больших масштабах анализировать контент в СМИ и выявлять манипуляции. Обе программы борются с фальсификациями и массовой дезинформацией. Разработчики стремятся не просто находить и опровергать дипфейки, которые уже оказались в медиапространстве. Главная цель — пресекать генерацию и распространение ложного контента в самом начале. 

Коллектив из компаний Google и Jigsaw, а также медиа-криминалист Луиза Вердолива из Италии, совместно разработали детектор дипфейков - FaceForensics++(ссылка на Гитхаб). Проект включает в себя обширный датасет, содержащий синтетические видео и фотографии, созданные популярными нейросетями. Алгоритм, обученный на этом наборе данных, теперь способен распознавать дипфейки. Важно отметить, что разработчики подчеркивают, что детектор не предоставляет абсолютной гарантии результата и в настоящее время способен определять контент, созданный лишь некоторыми известными программными пакетами.

Немного истории

В истории криминалистики неоднократно зарождались новые направления благодаря развитию технологий, и медиа-криминалистика — не исключение. История криминалистики гордится несколькими случаями, когда новые области этой науки выходили на передний план благодаря технологическим инновациям.

Профилирование: В 1980-х годах специальный агент ФБР Джон Дуглас стал пионером систематизации информации по делам серийных преступников. Созданная им база данных позволяла анализировать мотивы и действия преступников. Этот подход привел к созданию специального отдела ФБР по расследованию серийных убийств.

Базы данных геномной информации: В 1980-х годах разработан метод анализа ДНК, который быстро нашел применение в криминалистике. К концу 1990-х во многих странах были созданы базы генетических данных, ускорившие расследования и помогшие решить даже сложные дела.

База данных по сериям преступлений: С начала 1970-х журналист-расследователь Томас Харгроув собирал отчеты по убийствам. В 2010 году он разработал программу, выявляющую совпадения в различных делах, помогая полицейским устанавливать связи между преступлениями и выявлять серии.

Надеюсь моя информация побудила Вас углубиться в тему Медиа-криминалистики и понять как определять фейки.

Комментарии 1

Авторизуйтесь чтобы оставить комментарий

sometimes it causes a feeling of fear...

Ответить