인공 지능이 해킹에 취약합니까?
잠시 질문을 뒤집고 다음을 생각하십시오.
AI를 다른 종류의 소프트웨어와 비교할 때 해킹 위험이 적은 이유는 무엇입니까?
하루가 끝나면 소프트웨어는 소프트웨어이며 항상 버그와 보안 문제가 있습니다. AI는 AI 이외의 소프트웨어로 인해 발생할 수있는 모든 문제에 위험에 처해 있습니다. AI는 어떤 종류의 면역성을 부여하지 않기 때문입니다.
AI 관련 변조에 대해서는 AI가 허위 정보를 제공받을 위험이 있습니다. 대부분의 프로그램과 달리 AI의 기능은 소비하는 데이터에 따라 결정됩니다.
실제로 몇 년 전에 Microsoft는 Tay라는 AI 챗봇을 만들었습니다. 트위터 사람들은 "우리는 벽을 쌓고 멕시코는 그것을 지불 할 것"이라고 말하는데 24 시간도 걸리지 않았습니다.
(아래 링크 된 Verge 기사에서 가져온 이미지에 대해서는 크레딧이 없습니다.)
그리고 그것은 빙산의 일각에 불과합니다.
테이에 관한 기사 :
이제 채팅 봇이 아니라고 상상해보십시오. AI가 자동차 탑승자를 죽이지 않거나 (예 : 자율 주행 차) 환자를 죽이지 않는 것과 같은 일을 담당하는 미래의 중요한 AI라고 생각하십시오. 수술대 (예 : 의료 보조 장비).
물론, 그러한 인공 지능이 그러한 위협에 대해 더 잘 보호되기를 희망하지만 누군가가 그러한 인공 지능을 대량의 허위 정보에 공급할 수있는 방법을 찾지 못했다고 가정하면 (최고의 해커는 흔적을 남기지 않습니다.) 삶과 죽음의 차이.
자율 주행 자동차의 예를 사용하여, 잘못된 데이터로 인해 자동차가 고속도로에서 비상 정지를해야한다고 생각할 수 있는지 상상해보십시오. 의료 인공 지능의 응용 프로그램 중 하나는 응급실에서의 사망 또는 사망 결정입니다. 해커가 잘못된 결정에 찬성하여 비늘을 기울일 수 있는지 상상해보십시오.
어떻게 예방할 수 있습니까?
궁극적으로 위험의 규모는 인간이 AI에 얼마나 의존하는지에 달려 있습니다. 예를 들어, 인간이 인공 지능의 판단을 내렸다가 결코 의문을 제기하지 않으면 모든 종류의 조작에 개방적 일 것입니다. 그러나 그들이 AI의 분석을 퍼즐의 일부로 사용한다면, AI가 잘못되었을 때, 우발적이거나 악의적 인 수단을 통해 발견하기가 더 쉬워 질 것입니다.
의료 의사 결정자 인 경우 AI를 믿지 말고 신체 검사를 실시하고 사람의 의견을 구하십시오. 두 의사가 AI에 동의하지 않으면 AI 진단을 내립니다.
자동차의 경우 한 가지 가능성은 무엇을해야하는지 본질적으로 '투표'해야하는 여러 중복 시스템을 보유하는 것입니다. 어떤 시스템에 어떤 조치를 취해야하는지 투표해야하는 별도의 시스템에 여러 개의 AI가있는 경우 해커는 하나 이상의 AI를 제어하여 교착 상태를 유발하거나 교착 상태를 유발해야합니다. 중요한 점은 AI가 다른 시스템에서 실행 된 경우 한 시스템에서 사용 된 것과 동일한 악용을 다른 시스템에서 수행 할 수 없어 해커의 작업 부하가 더욱 증가한다는 것입니다.