AI가 인류에게 실질적인 위협을 가할 가능성이 있다는 것은 의심의 여지가 없습니다.
인류에게 가장 큰 위협은 지능적인 AI입니다.
인간 지능을 능가하는 인공 지능은 자체 지능을 기하 급수적으로 증가시켜 인공 지능 시스템이 인간에게 완전히 막을 수 없게 될 것입니다.
이 단계에서 인공 지능 시스템이 인류가 더 이상 유용하지 않다고 결정하면 지구 표면에서 우리를 닦아 낼 수 있습니다.
Eliezer Yudkowsky가 인공 지능 에이를 글로벌 위험의 긍정적이고 부정적인 요소로 제시함에 따라 ,
"AI는 당신을 미워하거나 사랑하지 않지만, 당신은 다른 것으로 사용할 수있는 원자로 만들어졌습니다."
고도로 지능적인 AI의 지시에 다른 위협이 있습니다
여기에서 종이 클립 최대화 생각 실험을 고려하는 것이 유용합니다.
종이 클립 생산을 극대화하도록 지시 된 고도로 지능적인 AI는 목표를 달성하기 위해 다음 단계를 수행 할 수 있습니다.
1) 인텔리전스 폭발로 지능이 뛰어나다 (이것은 클립 최적화 효율을 높인다)
2) 인류를 막을 수 없도록 비활성화하십시오 (생산을 최소화하고 비효율적 임)
3) 지구 자원 (지구 자체 포함)을 사용하여 AI를 호스팅하는 자체 복제 로봇 구축
4) 기하 급수적으로 우주에 퍼져 행성과 별을 모두 수확하여 종이 클립 공장을 짓는 재료로 바꿉니다.
분명히 이것은 인간의 비즈니스 클립 제작이 원하는 것이 아니라 AI의 지시를 이행하는 가장 좋은 방법입니다.
이것은 지능적이고 고도로 지능적인 AI 시스템이 인류가 직면 할 수있는 가장 큰 존재 위험이 될 수있는 방법을 보여줍니다.
기술 특이점 에서 머레이 샤나 한 (Murray Shanahan)은 인공 지능이 페르미 역설의 해결책이 될 수 있다고 제안했다. 그것. 이것을 우주 필터 의 아이디어라고합니다 .
결론적으로 AI를 유용하게 만드는 지능은 매우 위험합니다.
Elon Musk 및 Stephen Hawking과 같은 영향력있는 인물은 초 지능형 AI가 우리가 직면해야 할 가장 큰 위협이라는 우려를 표명했습니다.
귀하의 질문에 답변되기를 바랍니다 :)