산업공학과 박새롬 교수 연구팀(SafeAI Lab)이 딥페이크 탐지 모델의 보안 취약성을 다루는 AI 보안 대회에서 세계 2위를 차지했다.
연구팀은 ‘Adversarial Attacks on Deepfake Detectors: A Challenge in the Era of AI-Generated Media(AADD 2025)‘ 대회에 참가해 우수한 성적을 거뒀다.
이 대회에서 사용한 핵심 기술을 다룬 논문 ‘MIG-COW: Transferable Adversarial Attacks on Deepfake Detectors via Gradient Decomposition’은 지난달 27일부터 31일까지 아일랜드 더블린에서 열린 제33회 ‘ACM 국제 멀티미디어 학회(ACM Multimedia 2025)’에서 구두 발표됐다.
이번 챌린지는 AI 생성 미디어 시대의 핵심 이슈인 딥페이크 탐지기의 취약성(Adversarial Vulnerability) 을 탐구하기 위해 열린 국제 규모의 대회로, 전 세계 주요 연구기관과 기업 팀이 참여했다.
SafeAI 팀은 서원준(컴퓨터공학과)·백준혁(산업공학과)·정예성(인공지능대학원) 학생으로 구성됐으며, 박 교수 지도 아래 연구실에서 자체 개발한 ‘MIG-COW (Momentum + Integrated Gradients – Consensus Orthogonal Weights)’ 알고리즘을 개발했다.
이 프레임워크는 여러 딥페이크 탐지 모델의 공통 취약 지점을 통합적으로 분석하고, 개별 모형의 공격 성공률을 보존할 수 있는 앙상블 적대적 공격(ensemble adversarial attack)을 수행함으로써 AI 탐지기의 안전성 한계를 체계적으로 입증했다.
연구 성과를 발표한 서원준 학생은 “AI 위조 콘텐츠 시대에는 탐지와 공격 기술의 균형 발전이 필수적”이라며 “이번 성과를 계기로 AI 안전성(AI Safety) 분야의 핵심 문제를 더 깊이 탐구하고 싶다”고 말했다.
한편, ‘ACM 국제 멀티미디어’ 학회는 인공지능 및 멀티미디어 분야 세계적 권위의 국제 학회로, 올해 개최된 ‘AADD 2025 챌린지’에는 전 세계 8개국 17개 팀이 참가했다. SafeAI 연구팀은 이 가운데 최상위권인 2위에 오르며 한국 대학 팀으로서는 유일하게 입상했다.










