인위적으로 만든 미디어를 인식하기위한 몇 가지 전술은 무엇입니까?


12

위조 사진, 위조 사운드 비트 및 위조 비디오를 저렴하게 만들 수있는 기능이 커짐에 따라 실제 내용과 그렇지 않은 부분을 인식하는 데 점점 더 많은 문제가 발생합니다. 지금도 적은 비용으로 가짜 미디어를 만드는 많은 응용 프로그램 예를 볼 수 있습니다 ( Deepfake , FaceApp 등 참조).

분명히, 이러한 응용 프로그램이 잘못된 방식으로 사용되면 다른 사람의 이미지를 손상시키는 데 사용될 수 있습니다. Deepfake는 상대방에게 불충실하게 보이게하는 데 사용될 수 있습니다. 정치인이 논란의 여지가 있다고 말한 것처럼 다른 응용 프로그램을 사용할 수 있습니다.

인위적으로 제작 된 미디어를 인식하고 보호하는 데 사용할 수있는 기술은 무엇입니까?

답변:


2

DMF ( Digital Media Forensics ) 필드는 이미지 또는 비디오의 무결성을 자동으로 평가할 수있는 기술을 개발하는 것을 목표로하므로 DMF 가 원하는 분야입니다. DMF에는 몇 가지 접근 방식이 있습니다. 예를 들어 ML (machine learning) 기술, 특히 CNN (convolutional neural network) 기술을 기반으로하는 접근 방식이 있습니다.

예를 들어, David Güera와 Edward J. Delp는 Recurrent Neural Networks를 사용한 Deepfake Video Detection (2018) 논문에서 CNN으로 구성된 2 단계 분석을 통해 프레임 레벨에서 피처를 추출한 다음 시간을 인식하는 RNN을 통해 프레임을 포착 할 것을 제안합니다. 딥 페이크 툴에 의해 도입 된 프레임들 간의 시간적 불일치 보다 구체적으로, 그들은 포괄적 인 훈련을받은 컨볼 루션 LSTM 아키텍처 (LSN과 결합 된 CNN)를 사용하므로 CNN은 비디오의 기능을 학습하여 RNN에 전달되어 가능성을 예측하려고 시도합니다. 가짜 비디오에 속하는 기능의 유무 3 장 에서는 비디오 프레임간에 불일치가 발생 하는 딥 페이크 비디오 생성에 대해 설명합니다. 보기 및 조명 조건이 다른 이미지를 사용하기 때문에 (제안 된 방법에서 활용됨).

다른 유사한 작업들이 제안되었다. 관련 논문에 대해서는이 큐레이터 목록 https://github.com/aerophile/awesome-deepfakes 를 참조하십시오 .


1

나는 여기서 문맥이 중요하다고 생각합니다. 스코틀랜드 마당에서 1 세기 이상 사용한 것과 같은 전술을 사용하는 것이 가장 좋은 방법 일 것입니다. 알리바이, 현실적인 타임 라인, 동기 설정. 합법적 인 설정의 경우 이와 같은 방법을 사용하여 이러한 이미지가 가짜임을 증명할 수 있습니다. IT 관점에서 이러한 이미지의 원점을 정확히 찾아 낼 수 있습니다. 수천 개의 이중 이미지가 단일 원점에서 가져온 경우이 원점의 이미지가 의심됩니다.

나는 일반적으로 우리가 보는 모든 것을 믿지 않도록 스스로 훈련해야한다고 생각합니다. 이미지를 위조하는 방법이 너무 많아서 사진을 더 이상 사건 발생의 가장 좋은 증거로 간주 할 수 없습니다. 우리는 모든 이미지를 무시해서는 안되며 대신 결론으로 ​​넘어 가기 전에 사실의 외부 동의를 구해야합니다. 모든 사실이 사건이 일어나고 있음을 나타내면 그 사진은 실제 일 것입니다.


0

문제의 매체에 인공물과 부 자연스러운 요소가 존재하지 않고 매체가 사람의 눈과 구별 할 수 없다고 가정하면,이를 수행 할 수있는 유일한 방법은 이미지의 출처를 추적하는 것입니다.

단일 IP에서 단일 서버로 불합리한 수의 요청이 전송되어 충돌이 발생하는 DoS (서비스 거부) 공격에 비유 할 수 있습니다. 공통 솔루션은 허니팟으로, 하나의 요청이 많을 경우 IP는 디코이 서버로 리디렉션되며, 충돌하더라도 작동 시간이 저하되지 않습니다. 백서에서 이미지의 디지털 서명을 확인하는 것에 대해 또는 이미지 변조 및 소스 카메라 식별을 조작 제안 에 대해 언급 한 일부 연구가 수행되었습니다 .

소스로 되돌아 간 후에, 잠재적으로 허위의 이미지가 단수 소스에서 나온다면, 의문의 여지가 있습니다.

각 가짜 요청이 분산 소스에서 발생하는 DDoS (Distributed Denial of Service) 공격과 같은 유추를 기반으로 무언가를 처리 할 때 공통적 인 두려움이 발생합니다. AI 측면에서의 사기 탐지는 아직 확립되지 않았습니다.

본질적으로 특정 악의적 인 목적을 위해 인공 미디어를 잘 생각하기 위해서는 오늘날 포착하기가 매우 어렵습니다. 그러나 현재 AI의 보안에 대한 작업이 진행되고 있습니다. 악의적 인 목적으로 인공 미디어를 사용할 계획이라면 지금이 가장 좋은 시간이라고 말할 것입니다.

이 보안은 이제 조금 우려되었습니다. 기사 데이터 과학자 따옴표로 작성

딥 페이크는 이미 가짜 포르노 비디오를 통해 여성을 괴롭 히고 모욕하는 데 사용되었습니다. 이 용어는 실제로 TensorFlow를 사용하여 GAN (Generative Adversarial Network)을 구축하여 이러한 비디오를 제작 한 Reddit 사용자의 사용자 이름에서 유래 한 것입니다. 이제 정보 관리들은 블라디미르 푸틴이 2020 년 대선에 영향을 미치기 위해 가짜 비디오를 사용할 가능성에 대해 이야기하고 있습니다. 민주주의와 국가 안보에 대한 위협 및 탐지 방법에 대한 심층 연구에 대한 더 많은 연구가 진행되고 있습니다.

참고- 나는 네트워크 보안에 대해 단서가 없으며 모든 지식은 친구와의 한 대화에서 비롯되며 이것이 여기에서 사용하기에 좋은 비유라고 생각했습니다. 유추의 오류를 용서하고 가능한 경우 수정하십시오!


약간의 연구를 수행하고 그 라인을 따라 무언가를 기반으로하는 (즉, 잠재적으로 가짜 비디오의 출처를 이용하는) 적어도 하나의 연구 작업 / 종이에 대한 링크를 제공 할 수 있다면 좋을 것입니다.
nbro

그렇다에서 논문 잠재적 인 피해에 대해 말하기 , 그리고 사람은 일반적 유물을 발견하려고 같은 대답에 명시된 무슨 일을 적은 논문 이 하나 또는 이 한 - 바와 같이, 광범위한 연구가이 라인에 수행하지 않은 말했다, 그러나 그것은이다 탐험 중입니다. 이 링크가 도움이 되었기를 바랍니다.
ashenoy

-1

언급 한 기술은 GAN을 사용합니다. GAN의 핵심 아이디어는 발전기와 판별 기가 있다는 것입니다. 생성기는 새로운 컨텐츠를 생성하고, 판별 기는 컨텐츠가 실제 데이터로부터 온 것인지 또는 생성되었는지를 알려야합니다.

차별자는 훨씬 강력합니다. 가짜를 탐지하기 위해 차별자를 훈련시키는 것은 너무 어렵지 않습니다. 조작을 정확히 파악하고 이해할 수있는 모델을 훈련하는 것은 조작 증거입니다. 무언가가 조작되지 않았다는 증거를 얻는 것은 불가능합니다.

포토샵 이미지 처리 방법에 대한 질문 : 이미지의 압축 수준 차이를 살펴 봅니다. 찾아야 할 키워드는 이미지 법의학입니다 : http://fotoforensics.com/tutorial-estq.php

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.