문제의 매체에 인공물과 부 자연스러운 요소가 존재하지 않고 매체가 사람의 눈과 구별 할 수 없다고 가정하면,이를 수행 할 수있는 유일한 방법은 이미지의 출처를 추적하는 것입니다.
단일 IP에서 단일 서버로 불합리한 수의 요청이 전송되어 충돌이 발생하는 DoS (서비스 거부) 공격에 비유 할 수 있습니다. 공통 솔루션은 허니팟으로, 하나의 요청이 많을 경우 IP는 디코이 서버로 리디렉션되며, 충돌하더라도 작동 시간이 저하되지 않습니다. 이 백서에서 이미지의 디지털 서명을 확인하는 것에 대해 또는 이미지 변조 및 소스 카메라 식별을 조작 한 제안 에 대해 언급 한 일부 연구가 수행되었습니다 .
소스로 되돌아 간 후에, 잠재적으로 허위의 이미지가 단수 소스에서 나온다면, 의문의 여지가 있습니다.
각 가짜 요청이 분산 소스에서 발생하는 DDoS (Distributed Denial of Service) 공격과 같은 유추를 기반으로 무언가를 처리 할 때 공통적 인 두려움이 발생합니다. AI 측면에서의 사기 탐지는 아직 확립되지 않았습니다.
본질적으로 특정 악의적 인 목적을 위해 인공 미디어를 잘 생각하기 위해서는 오늘날 포착하기가 매우 어렵습니다. 그러나 현재 AI의 보안에 대한 작업이 진행되고 있습니다. 악의적 인 목적으로 인공 미디어를 사용할 계획이라면 지금이 가장 좋은 시간이라고 말할 것입니다.
이 보안은 이제 조금 우려되었습니다. 기사 데이터 과학자 따옴표로 작성
딥 페이크는 이미 가짜 포르노 비디오를 통해 여성을 괴롭 히고 모욕하는 데 사용되었습니다. 이 용어는 실제로 TensorFlow를 사용하여 GAN (Generative Adversarial Network)을 구축하여 이러한 비디오를 제작 한 Reddit 사용자의 사용자 이름에서 유래 한 것입니다. 이제 정보 관리들은 블라디미르 푸틴이 2020 년 대선에 영향을 미치기 위해 가짜 비디오를 사용할 가능성에 대해 이야기하고 있습니다. 민주주의와 국가 안보에 대한 위협 및 탐지 방법에 대한 심층 연구에 대한 더 많은 연구가 진행되고 있습니다.
참고- 나는 네트워크 보안에 대해 단서가 없으며 모든 지식은 친구와의 한 대화에서 비롯되며 이것이 여기에서 사용하기에 좋은 비유라고 생각했습니다. 유추의 오류를 용서하고 가능한 경우 수정하십시오!