ЛР5-7. Определение дезинформации: фото, видео, звук
Тема: «Определение дезинформации: комплексный анализ фото-, видео- и аудиоконтента»
Цель работы: повышение осведомленности в признаках дезинформации в фотографиях, видеозаписях и аудиофайлах; освоить инструментарий анализа мультимедийного контента; разработать практические рекомендации для персонала транспортных предприятий по противодействию дезинформации.
Теоретическая часть
В современном информационном пространстве дезинформация стала одним из ключевых инструментов информационного противоборства. С развитием технологий генеративного искусственного интеллекта (ИИ) создание гиперреалистичных поддельных изображений, видео и аудиозаписей стало доступно широкому кругу лиц .
Для специалистов по информационной безопасности автоматизированных систем транспорта дезинформация в мультимедийном контенте представляет особую опасность:
| Тип контента | Примеры угроз для транспортной сферы |
|---|---|
| Фото | Фальсификация фотографий с мест ДТП для дискредитации перевозчика; поддельные документы с фото-подписями; фейковые изображения повреждений инфраструктуры |
| Видео | Дипфейки с участием руководителей транспортных предприятий, отдающих ложные распоряжения; фальсификация записей с камер наблюдения; создание провокационных видеороликов |
| Аудио | Поддельные голосовые команды диспетчерам; фальсификация переговоров экипажа; создание компрометирующих аудиозаписей |
По сложности и типу вмешательства методы подделки можно разделить на три уровня :
Простая ретушь и монтаж: удаление или добавление объектов, изменение фона, коррекция цвета. Выявляется традиционными методами анализа неоднородностей, теней и метаданных.
Клонирование и спайсинг: копирование фрагментов внутри изображения для сокрытия деталей.
Генеративный ИИ и дипфейк: технологии на базе генеративно-состязательных сетей (GAN) и диффузионных моделей создают не существовавшие в реальности объекты или гиперреалистично замещают элементы.
Для звуковой дезинформации существует также понятие «звуковая дезинформация» в военном контексте — использование звуков для введения противника в заблуждение относительно перемещений войск или строительства объектов .
Цель работы: освоить методики выявления признаков дезинформации в фото-, видео- и аудиоконтенте, научиться использовать специализированные инструменты анализа и разработать рекомендации для персонала транспортного предприятия.
Задачи:
Изучить теоретические основы создания и обнаружения дезинформации в различных типах медиа.
Провести анализ предоставленных образцов фото-, видео- и аудиофайлов на предмет признаков дезинформации.
Освоить работу с инструментами выявления дипфейков (онлайн-сервисы, специализированное ПО).
Составить матрицу признаков дезинформации для каждого типа контента.
Разработать памятку для сотрудников транспортного предприятия по распознаванию дезинформации в мультимедийном контенте.
Задание
1. Найти в сети интернет 2-3 фото, 2-3 видео, 2-3 аудио, среди которых есть как подлинные, так и с признаками форм дезинформации.
Варианты заданий.
| Вариант | Тематика | Целевой контекст |
|---|---|---|
| 1 | Инциденты на транспорте | Фото и видео с мест ложных ДТП, фальсификация записей переговоров |
| 2 | Распоряжения руководства | Дипфейки с участием руководителей транспортных предприятий |
| 3 | Пассажирские ситуации | Поддельные видео нарушений, фейковые аудиообращения |
| 4 | Инфраструктурные объекты | Фото повреждений объектов транспорта, видео с камер наблюдения |
Форма итогового продукта
Аналитический отчет с подробным разбором каждого файла и таблицей признаков.
Обучающий видеоролик с демонстрацией процесса анализа.
2. Ознакомьтесь с теоретическим материалом и подготовьте необходимые инструменты:
Для анализа фото:
Инструменты проверки метаданных: ExifTool, онлайн-анализаторы EXIF
Сервисы обратного поиска изображений: Google Images, Yandex Images, TinEye
Инструменты Error Level Analysis (ELA): фоторедакторы с функцией ELA, онлайн-сервисы (fotoforensics.com)
Платформы проверки дипфейков: TrueMedia.org
Для анализа видео:
Инструменты покадрового анализа: видеоредакторы, VLC Media Player (покадровый просмотр)
Сервисы проверки: TrueMedia.org, Deepware Scanner
Инструменты анализа несоответствий: поиск артефактов сжатия, анализ синхронизации губ и звука
Для анализа аудио:
Спектрограммные анализаторы: Audacity (спектрограммы), Sonic Visualiser
Специализированные детекторы: WeDefense toolkit (открытый инструментарий для обнаружения поддельного аудио)
Анализ физиологических артефактов: внимание на дыхание, паузы, естественность интонаций
3. Для каждого фото выполните анализ по схеме:
Заполните таблицу результатов:
| Файл | Признаки подлинности | Признаки подделки | Вердикт |
|---|---|---|---|
| photo1.jpg | ... | ... | ... |
| photo2.png | ... | ... | ... |
4. Для каждого видео выполните анализ:
Предварительный просмотр: оцените общее впечатление, наличие визуальных аномалий.
Покадровый анализ:
Просмотрите видео по кадрам, обращая внимание на артефакты вокруг лица/объектов
Оцените синхронизацию губ и звука
Проверьте моргание (дипфейки старых поколений имели проблемы с реалистичным морганием)
Анализ с помощью ИИ-детекторов:
Загрузите видео в TrueMedia.org или аналогичный сервис
Зафиксируйте результаты детекции
Технический анализ:
Проверьте метаданные видео (кодек, дата создания, программа-кодировщик)
Проанализируйте частотный спектр на наличие повторяющихся артефактов
Контекстуальный анализ:
Соответствует ли содержание другим известным фактам?
Есть ли логические несоответствия?
5. Для каждого аудиофайла выполните анализ :
Обратите особое внимание на артефакты вокадера — характерные искажения, которые оставляют алгоритмы синтеза речи . Современные детекторы, такие как BreathNet, анализируют наличие естественных физиологических звуков (дыхание) как признак подлинности .
6. На основе проведённого анализа заполните обобщающую таблицу:
| Тип контента | Критические признаки подлинности | Характерные признаки подделки | Наиболее эффективные методы выявления |
|---|---|---|---|
| Фото | Однородность шума, естественные тени, корректные метаданные | Аномалии ELA, несоответствие освещения, артефакты генерации | ELA + анализ шумовых паттернов + обратный поиск |
| Видео | Естественное моргание, синхронизация, реалистичная мимика | Артефакты сжатия, неестественные движения, ошибки рендеринга | Покадровый анализ + ИИ-детекторы |
| Аудио | Естественное дыхание, микро-паузы, богатство частот | Монотонность, отсутствие дыхания, артефакты в высоких частотах | Спектрограмма + анализ физиологии |
7.Разработайте два типа рекомендаций:
Памятка для сотрудников транспортного предприятия (простые правила на 1 странице):
Как отличить подозрительное изображение/видео/аудио
Куда сообщать о подозрительном контенте
Что делать при получении сомнительных распоряжений от руководства (особенно в аудио- или видеоформате)
Рекомендации для ИБ-специалистов:
Внедрение процедур верификации мультимедийных распоряжений
Настройка систем мониторинга для выявления дипфейков с участием руководства
Проведение регулярных тренингов для персонала
Контрольные вопросы
Дайте определение понятиям «дезинформация» и «дипфейк». В чём их различие?
Какие основные методы создания поддельных изображений существуют?
Как работает Error Level Analysis (ELA) и для чего он применяется?
Почему анализ шумовых паттернов важен для выявления дипфейков?
Какие технические подходы используются для обнаружения дипфейков в видео?
Что такое «звуковая дезинформация» и как она применялась в военной истории?
Какие физиологические артефакты помогают выявить поддельное аудио?
Как работают современные детекторы аудиодипфейков (BreathNet, WeDefense)?
Почему для транспортной отрасли проблема дипфейков особенно актуальна?
Какие организационные меры могут снизить риски от дезинформации на транспорте?
Какие методы анализа оказались наиболее эффективными?
Какие типы подделок сложнее всего выявить?
Какие угрозы для транспортной отрасли наиболее актуальны?
Список источников
Разработанный TrueMedia инструмент помогает журналистам выявлять дипфейки и бороться с ними // Nansmit. – 2026. – 28 января. – URL: https://www.nansmit.org/index.php/ru/o-nas/curs/116731-razrabotannyj-truemedia-instrument-pomogaet-zhurnalistam-vyyavlyat-dipfejki-i-borotsya-s-nimi (дата обращения: 27.02.2026).
Звукова дезінформація // Вікіпедія. – 2026. – 24 січня. – URL: https://uk.wikipedia.org/wiki/Звукова_дезінформація (дата обращения: 27.02.2026).
Deepfake detection via spatial–temporal deep networks: leveraging CNNs and LSTMs for enhanced accuracy / M. S. Al-kaabi, S. Al-Janabi, A. Al-Khazraji [et al.] // Discover Applied Sciences. – 2026. – Vol. 8, article 179. – DOI 10.1007/s42452-025-08014-w.
Kim, Y. Fusion Segment Transformer: Bi-Directional Attention Guided Fusion Network for AI-Generated Music Detection / Y. Kim, J. Park // arXiv. – 2026. – 20 January. – arXiv:2601.13647. – URL: https://arxiv.org/abs/2601.13647 (дата обращения: 27.02.2026).
Корпорация Microsoft представила новые стандарты проверки цифрового контента // КТРК. – 2026. – 20 февраля. – URL: https://ktrk.kg/tehnologii/korporacziya-microsoft-predstavila-novye-standarty-proverki-czifrovogo-kontenta/ (дата обращения: 27.02.2026).
Штучний інтелект у медіа та протидія дезінформації // Житомирська обласна бібліотека. – 2026. – 10 лютого. – URL: http://ztreglib.com.ua/ua/newsua/node/13467 (дата обращения: 27.02.2026).
Дезинформация и информационный шум в цифровую эпоху : программа дисциплины / Национальный исследовательский университет «Высшая школа экономики». – Москва, 2025. – URL: https://www.hse.ru/ba/journ/courses/1048896878.html (дата обращения: 27.02.2026).
BreathNet: Generalizable Audio Deepfake Detection via Breath-Cue-Guided Feature Refinement / Z. Ye, J. Deng, R. Liu [et al.] // arXiv. – 2026. – 14 February. – arXiv:2602.13596. – URL: https://arxiv.org/abs/2602.13596 (дата обращения: 27.02.2026).
WeDefense: A Toolkit to Defend Against Fake Audio / L. Zhang, H. Wang, Y. Chen [et al.] // arXiv. – 2026. – 21 January. – arXiv:2601.15240. – URL: https://arxiv.org/abs/2601.15240 (дата обращения: 27.02.2026).
Экспертиза цифровых фотографий на подлинность: методы выявления подделок и дипфейков в цифровую эру // Федерация судебных экспертов. – 2026. – 5 января. – URL: https://sud-expertiza.ru/ekspertiza-czifrovyh-fotografij-na-podlinnost-metody-vyyavleniya-poddelok-i-dipfejkov-v-czifrovuyu-eru/ (дата обращения: 27.02.2026).
Приложение А. Примеры дезинформации.
1 (фото): Изображение ДТП с участием автобуса. Признак: неестественные тени от объектов, несоответствие погодным условиям на указанную дату.
2 (видео): Обращение руководителя транспортной компании с распоряжением об изменении маршрутов. Признак: неестественная мимика, артефакты вокруг губ, несинхронность звука.
3 (аудио): Запись переговоров диспетчера. Признак: отсутствие дыхания, монотонный голос, артефакты на высоких частотах .
4 (фото): Фотография повреждённого железнодорожного полотна. Признак: результаты обратного поиска показывают, что фото взято из другого инцидента и отредактировано.
5 (видео): Запись с камеры наблюдения на вокзале. Признак: повторяющиеся паттерны движения, характерные для генеративных моделей.
Приложение Б. Чек-лист анализа
Фото
Проверил EXIF-метаданные (дата, камера, редактор)
Выполнил обратный поиск изображения
Проанализировал Error Level Analysis (ELA)
Оценил естественность теней и освещения
Проверил однородность шума
Для лиц: оценил симметрию, глаза, зубы
Видео
Просмотрел в покадровом режиме
Проверил синхронизацию губ и звука
Оценил естественность моргания и мимики
Использовал ИИ-детектор (TrueMedia и др.)
Проанализировал метаданные видеофайла
Проверил логическую согласованность с контекстом
Аудио
Прослушал с вниманием к дыханию и паузам
Построил спектрограмму в Audacity
Оценил частотный диапазон (наличие высоких частот)
Проверил на монотонность и неестественную интонацию
Использовал специализированный детектор (при наличии)