Перейти к основному содержанию
Учебный портал ФГБОУ ВО "СибАДИ"
  • В начало
  • Новости сайта
  • Контакты
    Кафедры и подразделения Сотрудники заочного факультета
  • Инфо-СибАДИ
    Официальный сайт СибАДИ Информационная система СибАДИ СибАДИ в социальных сетях Библиотека СибАДИ Портфолио
  • МООК СибАДИ
  • Для преподавателей
    Курс "Инструменты ЭИОС"
  • Дополнительно
Вы используете гостевой доступ
Вход
Учебный портал ФГБОУ ВО "СибАДИ"
В начало Новости сайта Контакты Свернуть Развернуть
Кафедры и подразделения Сотрудники заочного факультета
Инфо-СибАДИ Свернуть Развернуть
Официальный сайт СибАДИ Информационная система СибАДИ СибАДИ в социальных сетях Библиотека СибАДИ Портфолио
МООК СибАДИ Для преподавателей Свернуть Развернуть
Курс "Инструменты ЭИОС"
Развернуть всё Свернуть всё
  1. БИ-21Э1 Учебная практика (учебно-лабораторный практикум) / ОФ
  2. Основы информационного противоборства
  3. ЛР5-7. Определение дезинформации: фото, видео, звук

ЛР5-7. Определение дезинформации: фото, видео, звук

Требуемые условия завершения

Тема: «Определение дезинформации: комплексный анализ фото-, видео- и аудиоконтента»

Цель работы: повышение осведомленности в признаках дезинформации в фотографиях, видеозаписях и аудиофайлах; освоить инструментарий анализа мультимедийного контента; разработать практические рекомендации для персонала транспортных предприятий по противодействию дезинформации.


Теоретическая часть


   В современном информационном пространстве дезинформация стала одним из ключевых инструментов информационного противоборства. С развитием технологий генеративного искусственного интеллекта (ИИ) создание гиперреалистичных поддельных изображений, видео и аудиозаписей стало доступно широкому кругу лиц .

   Для специалистов по информационной безопасности автоматизированных систем транспорта дезинформация в мультимедийном контенте представляет особую опасность:

Тип контентаПримеры угроз для транспортной сферы
ФотоФальсификация фотографий с мест ДТП для дискредитации перевозчика; поддельные документы с фото-подписями; фейковые изображения повреждений инфраструктуры
ВидеоДипфейки с участием руководителей транспортных предприятий, отдающих ложные распоряжения; фальсификация записей с камер наблюдения; создание провокационных видеороликов
АудиоПоддельные голосовые команды диспетчерам; фальсификация переговоров экипажа; создание компрометирующих аудиозаписей


По сложности и типу вмешательства методы подделки можно разделить на три уровня :

  1. Простая ретушь и монтаж: удаление или добавление объектов, изменение фона, коррекция цвета. Выявляется традиционными методами анализа неоднородностей, теней и метаданных.

  2. Клонирование и спайсинг: копирование фрагментов внутри изображения для сокрытия деталей.

  3. Генеративный ИИ и дипфейк: технологии на базе генеративно-состязательных сетей (GAN) и диффузионных моделей создают не существовавшие в реальности объекты или гиперреалистично замещают элементы.

Для звуковой дезинформации существует также понятие «звуковая дезинформация» в военном контексте — использование звуков для введения противника в заблуждение относительно перемещений войск или строительства объектов .

Цель работы: освоить методики выявления признаков дезинформации в фото-, видео- и аудиоконтенте, научиться использовать специализированные инструменты анализа и разработать рекомендации для персонала транспортного предприятия.


Задачи:

  1. Изучить теоретические основы создания и обнаружения дезинформации в различных типах медиа.

  2. Провести анализ предоставленных образцов фото-, видео- и аудиофайлов на предмет признаков дезинформации.

  3. Освоить работу с инструментами выявления дипфейков (онлайн-сервисы, специализированное ПО).

  4. Составить матрицу признаков дезинформации для каждого типа контента.

  5. Разработать памятку для сотрудников транспортного предприятия по распознаванию дезинформации в мультимедийном контенте.


Задание

1. Найти в  сети интернет 2-3 фото, 2-3 видео, 2-3 аудио, среди которых есть как подлинные, так и с признаками  форм дезинформации.


Варианты заданий.

ВариантТематикаЦелевой контекст
1Инциденты на транспортеФото и видео с мест ложных ДТП, фальсификация записей переговоров
2Распоряжения руководстваДипфейки с участием руководителей транспортных предприятий
3Пассажирские ситуацииПоддельные видео нарушений, фейковые аудиообращения
4Инфраструктурные объектыФото повреждений объектов транспорта, видео с камер наблюдения


Форма итогового продукта

  • Аналитический отчет с подробным разбором каждого файла и таблицей признаков.

  • Обучающий видеоролик с демонстрацией процесса анализа.



2. Ознакомьтесь с теоретическим материалом и подготовьте необходимые инструменты:


Для анализа фото:

  • Инструменты проверки метаданных: ExifTool, онлайн-анализаторы EXIF

  • Сервисы обратного поиска изображений: Google Images, Yandex Images, TinEye

  • Инструменты Error Level Analysis (ELA): фоторедакторы с функцией ELA, онлайн-сервисы (fotoforensics.com)

  • Платформы проверки дипфейков: TrueMedia.org 

Для анализа видео:

  • Инструменты покадрового анализа: видеоредакторы, VLC Media Player (покадровый просмотр)

  • Сервисы проверки: TrueMedia.org, Deepware Scanner

  • Инструменты анализа несоответствий: поиск артефактов сжатия, анализ синхронизации губ и звука

Для анализа аудио:

  • Спектрограммные анализаторы: Audacity (спектрограммы), Sonic Visualiser

  • Специализированные детекторы: WeDefense toolkit (открытый инструментарий для обнаружения поддельного аудио) 

  • Анализ физиологических артефактов: внимание на дыхание, паузы, естественность интонаций 

3. Для каждого фото выполните анализ по схеме:

Параметр анализаЧто проверяемИнструменты
МетаданныеСоответствие даты, модели камеры, отсутствие противоречийExifTool, онлайн-анализаторы
Геометрия и оптикаЕстественность теней, перспективы, резкостиВизуальный анализ, фоторедакторы
Error Level AnalysisОбласти с аномальным уровнем сжатияFotoForensics
Шумовые паттерныОднородность цифрового шума по всему изображениюФоторедакторы с анализом шумов
Биометрическая согласованностьДля лиц: пропорции, симметрия, отражения в глазах, зубы Визуальный анализ
Обратный поискВстречалось ли изображение ранее в ином контекстеGoogle Images, Yandex

Заполните таблицу результатов:

ФайлПризнаки подлинностиПризнаки подделкиВердикт
photo1.jpg.........
photo2.png.........



4. Для каждого видео выполните анализ:

  1. Предварительный просмотр: оцените общее впечатление, наличие визуальных аномалий.

  2. Покадровый анализ:

    • Просмотрите видео по кадрам, обращая внимание на артефакты вокруг лица/объектов

    • Оцените синхронизацию губ и звука

    • Проверьте моргание (дипфейки старых поколений имели проблемы с реалистичным морганием)

  3. Анализ с помощью ИИ-детекторов:

    • Загрузите видео в TrueMedia.org или аналогичный сервис 

    • Зафиксируйте результаты детекции

  4. Технический анализ:

    • Проверьте метаданные видео (кодек, дата создания, программа-кодировщик)

    • Проанализируйте частотный спектр на наличие повторяющихся артефактов

  5. Контекстуальный анализ:

    • Соответствует ли содержание другим известным фактам?

    • Есть ли логические несоответствия?

5. Для каждого аудиофайла выполните анализ :

Метод анализаЧто ищемКак проверяем
Спектрографический анализАномалии в высоких частотах, неестественные провалы, повторяющиеся паттерныAudacity (спектрограмма), Sonic Visualiser
Физиологические артефактыЕстественность дыхания, паузы, сглатывания — то, что сложно синтезировать Внимательное прослушивание
Эмоциональная окраскаНесоответствие эмоций контексту, неестественная интонацияЭкспертная оценка
Использование детекторовЗапуск специализированных моделейWeDefense toolkit , онлайн-сервисы

Обратите особое внимание на артефакты вокадера — характерные искажения, которые оставляют алгоритмы синтеза речи . Современные детекторы, такие как BreathNet, анализируют наличие естественных физиологических звуков (дыхание) как признак подлинности .

6. На основе проведённого анализа заполните обобщающую таблицу:

Тип контентаКритические признаки подлинностиХарактерные признаки подделкиНаиболее эффективные методы выявления
ФотоОднородность шума, естественные тени, корректные метаданныеАномалии ELA, несоответствие освещения, артефакты генерацииELA + анализ шумовых паттернов + обратный поиск
ВидеоЕстественное моргание, синхронизация, реалистичная мимикаАртефакты сжатия, неестественные движения, ошибки рендерингаПокадровый анализ + ИИ-детекторы
АудиоЕстественное дыхание, микро-паузы, богатство частотМонотонность, отсутствие дыхания, артефакты в высоких частотахСпектрограмма + анализ физиологии



7.Разработайте два типа рекомендаций:

  1. Памятка для сотрудников транспортного предприятия (простые правила на 1 странице):

    • Как отличить подозрительное изображение/видео/аудио

    • Куда сообщать о подозрительном контенте

    • Что делать при получении сомнительных распоряжений от руководства (особенно в аудио- или видеоформате)

  2. Рекомендации для ИБ-специалистов:

    • Внедрение процедур верификации мультимедийных распоряжений

    • Настройка систем мониторинга для выявления дипфейков с участием руководства

    • Проведение регулярных тренингов для персонала


Контрольные вопросы

  1. Дайте определение понятиям «дезинформация» и «дипфейк». В чём их различие? 

  2. Какие основные методы создания поддельных изображений существуют? 

  3. Как работает Error Level Analysis (ELA) и для чего он применяется? 

  4. Почему анализ шумовых паттернов важен для выявления дипфейков? 

  5. Какие технические подходы используются для обнаружения дипфейков в видео? 

  6. Что такое «звуковая дезинформация» и как она применялась в военной истории? 

  7. Какие физиологические артефакты помогают выявить поддельное аудио? 

  8. Как работают современные детекторы аудиодипфейков (BreathNet, WeDefense)? 

  9. Почему для транспортной отрасли проблема дипфейков особенно актуальна?

  10. Какие организационные меры могут снизить риски от дезинформации на транспорте? 

  11. Какие методы анализа оказались наиболее эффективными? 

  12. Какие типы подделок сложнее всего выявить? 

  13. Какие угрозы для транспортной отрасли наиболее актуальны?



Список источников

  1. Разработанный TrueMedia инструмент помогает журналистам выявлять дипфейки и бороться с ними // Nansmit. – 2026. – 28 января. – URL: https://www.nansmit.org/index.php/ru/o-nas/curs/116731-razrabotannyj-truemedia-instrument-pomogaet-zhurnalistam-vyyavlyat-dipfejki-i-borotsya-s-nimi (дата обращения: 27.02.2026).

  2. Звукова дезінформація // Вікіпедія. – 2026. – 24 січня. – URL: https://uk.wikipedia.org/wiki/Звукова_дезінформація (дата обращения: 27.02.2026).

  3. Deepfake detection via spatial–temporal deep networks: leveraging CNNs and LSTMs for enhanced accuracy / M. S. Al-kaabi, S. Al-Janabi, A. Al-Khazraji [et al.] // Discover Applied Sciences. – 2026. – Vol. 8, article 179. – DOI 10.1007/s42452-025-08014-w.

  4. Kim, Y. Fusion Segment Transformer: Bi-Directional Attention Guided Fusion Network for AI-Generated Music Detection / Y. Kim, J. Park // arXiv. – 2026. – 20 January. – arXiv:2601.13647. – URL: https://arxiv.org/abs/2601.13647 (дата обращения: 27.02.2026).

  5. Корпорация Microsoft представила новые стандарты проверки цифрового контента // КТРК. – 2026. – 20 февраля. – URL: https://ktrk.kg/tehnologii/korporacziya-microsoft-predstavila-novye-standarty-proverki-czifrovogo-kontenta/ (дата обращения: 27.02.2026).

  6. Штучний інтелект у медіа та протидія дезінформації // Житомирська обласна бібліотека. – 2026. – 10 лютого. – URL: http://ztreglib.com.ua/ua/newsua/node/13467 (дата обращения: 27.02.2026).

  7. Дезинформация и информационный шум в цифровую эпоху : программа дисциплины / Национальный исследовательский университет «Высшая школа экономики». – Москва, 2025. – URL: https://www.hse.ru/ba/journ/courses/1048896878.html (дата обращения: 27.02.2026).

  8. BreathNet: Generalizable Audio Deepfake Detection via Breath-Cue-Guided Feature Refinement / Z. Ye, J. Deng, R. Liu [et al.] // arXiv. – 2026. – 14 February. – arXiv:2602.13596. – URL: https://arxiv.org/abs/2602.13596 (дата обращения: 27.02.2026).

  9. WeDefense: A Toolkit to Defend Against Fake Audio / L. Zhang, H. Wang, Y. Chen [et al.] // arXiv. – 2026. – 21 January. – arXiv:2601.15240. – URL: https://arxiv.org/abs/2601.15240 (дата обращения: 27.02.2026).

  10. Экспертиза цифровых фотографий на подлинность: методы выявления подделок и дипфейков в цифровую эру // Федерация судебных экспертов. – 2026. – 5 января. – URL: https://sud-expertiza.ru/ekspertiza-czifrovyh-fotografij-na-podlinnost-metody-vyyavleniya-poddelok-i-dipfejkov-v-czifrovuyu-eru/ (дата обращения: 27.02.2026).



Приложение А. Примеры дезинформации.


 1 (фото): Изображение ДТП с участием автобуса. Признак: неестественные тени от объектов, несоответствие погодным условиям на указанную дату.

 2 (видео): Обращение руководителя транспортной компании с распоряжением об изменении маршрутов. Признак: неестественная мимика, артефакты вокруг губ, несинхронность звука.

 3 (аудио): Запись переговоров диспетчера. Признак: отсутствие дыхания, монотонный голос, артефакты на высоких частотах .

4 (фото): Фотография повреждённого железнодорожного полотна. Признак: результаты обратного поиска показывают, что фото взято из другого инцидента и отредактировано.

 5 (видео): Запись с камеры наблюдения на вокзале. Признак: повторяющиеся паттерны движения, характерные для генеративных моделей.


Приложение Б. Чек-лист анализа

Фото

  • Проверил EXIF-метаданные (дата, камера, редактор)

  • Выполнил обратный поиск изображения

  • Проанализировал Error Level Analysis (ELA)

  • Оценил естественность теней и освещения

  • Проверил однородность шума

  • Для лиц: оценил симметрию, глаза, зубы

Видео

  • Просмотрел в покадровом режиме

  • Проверил синхронизацию губ и звука

  • Оценил естественность моргания и мимики

  • Использовал ИИ-детектор (TrueMedia и др.)

  • Проанализировал метаданные видеофайла

  • Проверил логическую согласованность с контекстом

Аудио

  • Прослушал с вниманием к дыханию и паузам

  • Построил спектрограмму в Audacity

  • Оценил частотный диапазон (наличие высоких частот)

  • Проверил на монотонность и неестественную интонацию

  • Использовал специализированный детектор (при наличии)


Academi

Сайт обслуживает Центр информационных образовательных технологий СибАДИ

Контакты

Россия, 644080 г. Омск, пр. Мира 5, ауд. 3216

Телефон : (3812) 65-23-11

Эл.почта : cit@cdo.sibadi.org

СибАДИ Life

Служба поддержки сайта
Вы используете гостевой доступ (Вход)
Скачать мобильное приложение
На платформе Moodle