ОГЛЯД МЕТОДІВ ВОДЯНИХ ЗНАКІВ ДЛЯ ПРОАКТИВНОГО ЗАХИСТУ ВІД DEEPFAKE

Автор(и)

DOI:

https://doi.org/10.28925/2663-4023.2026.32.1082

Ключові слова:

водяні знаки, дослідження зображень, глибинне машинне навчання, стеганографія, інформаційна безпека

Анотація

З розвитком генеративних моделей контент, створений за допомогою deepfake-технологій, стає все складніше відрізнити від реальності і разом з цим пасивні методи визначення згенерованого контенту стають все більш неефективними. Зловмисне використання засобів для генерації контенту надає зловмисникам можливості для соціальної інженерії, дезінформаційних кампанії та шахрайства. В зв’язку з цим виникає необхідність в новому класі інструментів, заснованих на попередньому маркуванні автентичного контенту, щоб захистити його від використання у deepfake-контенті або дезінформаційних кампаній. У цьому дослідженні ми проводимо комплексний аналіз рішень для водяних знаків (вотермаркінг) з метою проактивного захисту від deepfake. Ми ідентифікували основні рішення для вотермаркінгу, що стійкі до deepfake, які представлені в науковій літературі та створили таксономію для них. Також ми визначили основні метрики та датасети для тренування моделей вотермаркінгу на базі глибинного машинного навчання для проактивного захисту від deepfake. Ми провели кількісний та якісний аналіз існуючих рішень, їх методів, метрик та застосувань. В кінці ми проаналізували існуючі проблеми та виклика в даній сфері. Даний огляд може слугувати основою для майбутніх досліджень та впровадження політики для генеративного ШІ.

Завантаження

Дані завантаження ще не доступні.

Посилання

Rijsbosch, B., van Dijck, G., & Kollnig, K. (2025). Adoption of watermarking measures for AI-generated content and implications under the EU AI Act. arXiv. https://arxiv.org/abs/2503.18156

Fernandez, P., Level, A., & Furon, T. (2024). What lies ahead for generative AI watermarking. In ICML 2024 Workshop on Generative AI and Law.

Nemecek, A., Jiang, Y., & Ayday, E. (2025). Watermarking without standards is not AI governance. arXiv. https://arxiv.org/abs/2505.23814

Tilo, D. (2025, April 9). Singapore firm nearly lost $500,000 after deepfake video scam: Police. HRD Asia. https://www.hcamag.com/asia/specialisation/hr-technology/singapore-firm-nearly-lost-500000-after-deepfake-video-scam-police/531450

Hu, Y., Jiang, Z., Guo, M., & Gong, N. Z. (2024). A transfer attack to image watermarks. arXiv. https://arxiv.org/abs/2403.15365

Kassis, A., & Hengartner, U. (2025). UnMarker: A universal attack on defensive image watermarking. In Proceedings of the IEEE Symposium on Security and Privacy (pp. 2602–2620). IEEE.

Yang, Y., Liang, C., He, H., Cao, X., & Gong, N. Z. (2021). FaceGuard: Proactive deepfake detection. arXiv. https://arxiv.org/abs/2109.05673

Zhao, Y., Liu, B., Ding, M., Liu, B., Zhu, T., & Yu, X. (2023). Proactive deepfake defence via identity watermarking. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (pp. 4602–4611).

Wang, T., Huang, M., Cheng, H., Zhang, X., & Shen, Z. (2024). LampMark: Proactive deepfake detection via training-free landmark perceptual watermarks. In Proceedings of the ACM International Conference on Multimedia (pp. 10515–10524).

Lan, S., Liu, K., Zhao, Y., Yang, C., Wang, Y., Yao, X., & Zhu, L. (2024). Facial features matter: A dynamic watermark-based proactive deepfake detection approach. arXiv. https://arxiv.org/abs/2411.14798

Wang, R., Juefei-Xu, F., Guo, Q., Huang, Y., Ma, L., Liu, Y., & Wang, L. (2020). DeepTag: Robust image tagging for deepfake provenance. arXiv. https://arxiv.org/abs/2009.09869

Wang, R., Juefei-Xu, F., Luo, M., Liu, Y., & Wang, L. (2021). FakeTagger: Robust safeguards against deepfake dissemination via provenance tracking. In Proceedings of the ACM International Conference on Multimedia (pp. 3546–3555).

Yu, N., Skripniuk, V., Abdelnabi, S., & Fritz, M. (2021). Artificial fingerprinting for generative models: Rooting deepfake attribution in training data. In Proceedings of the IEEE/CVF International Conference on Computer Vision (pp. 14448–14457).

Sun, P., Qi, H., Li, Y., & Lyu, S. (2023). FakeTracer: Catching face-swap deepfakes via implanting traces in training. arXiv. https://arxiv.org/abs/2307.14593

Sanjalawe, Y., Al-E’mari, S., Fraihat, S., Abualhaj, M., & Alzubi, E. (2025). A deep learning-driven multi-layered steganographic approach for enhanced data security. Scientific Reports, 15(1), 4761.

Wang, T., Huang, M., Cheng, H., Ma, B., & Wang, Y. (2023). Robust identity perceptual watermark against deepfake face swapping. arXiv. https://arxiv.org/abs/2311.01357

Wu, X., Liao, X., & Ou, B. (2023). SepMark: Deep separable watermarking for unified source tracing and deepfake detection. In Proceedings of the ACM International Conference on Multimedia (pp. 1190–1201).

Saberi, M., Sadasivan, V. S., Rezaei, K., Kumar, A., Chegini, A., Wang, W., & Feizi, S. (2023). Robustness of AI-image detectors: Fundamental limits and practical attacks. arXiv. https://arxiv.org/abs/2310.00076

Fairoze, J., Ortiz-Jimenez, G., Vecerik, M., Jha, S., & Gowal, S. (2025). On the difficulty of constructing a robust and publicly-detectable watermark. arXiv. https://arxiv.org/abs/2502.04901

Jayasumana, S., Ramalingam, S., Veit, A., Glasner, D., Chakrabarti, A., & Kumar, S. (2024). Rethinking FID: Towards a better evaluation metric for image generation. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 9307–9315).

Neekhara, P., Hussain, S., Zhang, X., Huang, K., McAuley, J., & Koushanfar, F. (2024). FaceSigns: Semi-fragile watermarks for media authentication. ACM Transactions on Multimedia Computing, Communications and Applications, 20(11), 1–21.

Lai, Z., Yao, Z., Lai, G., Wang, C., & Feng, R. (2024). A novel face swapping detection scheme using the pseudo Zernike transform-based robust watermarking. Electronics, 13(24), 4955.

Tang, L., Ye, Q., Hu, H., Xue, Q., Xiao, Y., & Li, J. (2024). DeepMark: A scalable and robust framework for deepfake video detection. ACM Transactions on Privacy and Security, 27(1), 1–26.

Noreen, I., Muneer, M. S., & Gillani, S. (2022). Deepfake attack prevention using steganography GANs. PeerJ Computer Science, 8, e1125.

Beuve, N., Hamidouche, W., & Déforges, O. (2023). WaterLo: Protect images from deepfakes using localized semi-fragile watermark. In Proceedings of the IEEE/CVF International Conference on Computer Vision (pp. 393–402).

Nadimpalli, A. V., & Rattani, A. (2024). Social media authentication and combating deepfakes using semi-fragile invisible image watermarking. Digital Threats: Research and Practice, 5(4), 1–30.

Sun, C., Sun, H., Guo, Z., Diao, Y., Wang, L., Ma, D., et al. (2025). DiffMark: Diffusion-based robust watermark against deepfakes. arXiv. https://arxiv.org/abs/2507.01428

Walczyna, T., Zurada, J. M., & Piotrowski, Z. (2025). RE-Mark: An identity-recovery watermarking method for undoing deepfake face-swap. Authorea Preprints.

Wang, T., Cheng, H., Liu, M. H., & Kankanhalli, M. (2025). FractalForensics: Proactive deepfake detection and localization via fractal watermarks. In Proceedings of the ACM International Conference on Multimedia (pp. 7210–7219).

Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023). Deepfakes, misinformation, and disinformation in the era of frontier AI. In Proceedings of the International Conference on Computer and Applications (ICCA) (pp. 1–7). IEEE.

Downloads


Переглядів анотації: 58

Опубліковано

2026-03-26

Як цитувати

Марчук, М., & Лукічов, В. (2026). ОГЛЯД МЕТОДІВ ВОДЯНИХ ЗНАКІВ ДЛЯ ПРОАКТИВНОГО ЗАХИСТУ ВІД DEEPFAKE. Електронне фахове наукове видання «Кібербезпека: освіта, наука, техніка», 4(32), 802–819. https://doi.org/10.28925/2663-4023.2026.32.1082