Stephen Hawking의 인용문은 꽤 오랫동안 헤드 라인에 있습니다.
인공 지능은 인간이 개미와 같이 너무 영리 해지면 인류를 지울 수 있습니다.
왜 이런 말을합니까? 평신도 용어로 간단히 말하면 AI의 가능한 위협은 무엇입니까? AI가 너무 위험하다는 것을 안다면 왜 여전히 AI를 홍보하고 있습니까? 왜 금지되지 않습니까?
소위 기술 특이점 의 부작용은 무엇입니까 ?
Stephen Hawking의 인용문은 꽤 오랫동안 헤드 라인에 있습니다.
인공 지능은 인간이 개미와 같이 너무 영리 해지면 인류를 지울 수 있습니다.
왜 이런 말을합니까? 평신도 용어로 간단히 말하면 AI의 가능한 위협은 무엇입니까? AI가 너무 위험하다는 것을 안다면 왜 여전히 AI를 홍보하고 있습니까? 왜 금지되지 않습니까?
소위 기술 특이점 의 부작용은 무엇입니까 ?
답변:
그것은 단지 호킹 만이 아니라, 많은 사람들의 자제에 대한 변형을 듣는다. 그리고 그들은 대부분 매우 똑똑하고, 교육을 잘 받고, 정보를 잘 알고있는 사람들 (예를 들어, 엘론 머스크는 또 다른 사람)이라는 점을 감안할 때 아마도 무시해서는 안됩니다.
어쨌든, 기본 아이디어는 다음과 같습니다. 만약 우리가 "실제"인공 지능을 만들면, 어느 시점에서 스스로를 향상시킬 수있게되어 스스로 향상시키는 능력을 향상시킬 수 있습니다. "슈퍼 휴먼 인텔리전스"로 이어지는 가출 캐스케이드. 즉, 우리보다 더 지능적인 것을 이끌어냅니다.
지구상에서 문자 그대로 우리보다 인간이 더 나은 존재라면 어떻게 될까요? 우리에게 위협이 될까요? 글쎄, 그렇게 할 수 있다고 추측하는 것이 합리적으로 보입니다 . OTOH, 우리는 생각하는 지금, 특별한 이유가없는 것이다 너무합니다.
따라서 호킹, 머스크 등은 좀 더 조심스럽고 두려운 측면에서 내려 오는 것 같습니다. 우리는 초인간적 인공 지능이 위험 한지 아닌지 알지 못하고 그것이 악의적 일 경우 막을 수 없다는 것을 감안할 때 (우리보다 똑똑하다!) 고려하는 것이 합리적입니다.
Eliezer Yudkowsky는 유명한 "AI Box"실험을 포함하여이 주제에 대해 꽤 많은 글을 썼습니다. 이 주제에 관심이있는 사람은 자신의 자료 중 일부를 읽어야한다고 생각합니다.
그는 현재 AI가 얼마나 멀리 있는지 알지 못했기 때문에 미디어 AI 연구소에서 일하면서이 질문을 많이받습니다. 그러나 정말로 ... 우리는 여전히 이것으로부터 먼 길입니다. 로봇은 여전히 우리가 자세하게 설명하는 모든 것을 수행합니다. 로봇을 지능적으로 보지 않고 인간 프로그래머에게 창의력이 실제로 일어나는 부분을 살펴 봅니다.
평신도 용어로 간단히 말하면 AI의 가능한 위협은 무엇입니까?
현재는 위협이 없습니다.
인간이 소위 초 지능형 기계를 만드는 경우에 위협이옵니다.이 기계는 인간의 모든 지적 활동을 능가 할 수 있습니다. 이 기계는 인간보다 기계를 발명하는 것이 더 낫기 때문에 (지적 활동이기 때문에) 사람이해야 할 마지막 발명 일 것입니다. 그러나 이로 인해 기계가 인간을 파괴 할 수있는 기계를 발명 할 수 있으며 우리보다 훨씬 똑똑하기 때문에 기계를 막을 수 없습니다.
이것은 모두 가설 적이며, 초 지능형 기계의 모습에 대한 단서조차 아무도 없습니다.
AI가 너무 위험하다는 것을 안다면 왜 여전히 AI를 홍보하고 있습니까? 왜 금지되지 않습니까?
앞에서 말했듯이 초 지능형 머신의 존재는 가상적입니다. 인공 지능에는 유용한 응용 프로그램이 많으며 (이 답변에 포함될 수있는 것보다 더 많은) 응용 프로그램을 개발하면 더 유용한 응용 프로그램을 얻게됩니다. 기계가 우리를 추월하지 않도록 조심해야합니다.
Andrew Ng가 말했듯이 AI의 위협에 대해 걱정하는 것은 화성의 인구 과잉에 대해 걱정하는 것과 같습니다. 공상 과학 소설입니다.
그러나 훨씬 더 약한 로봇과 다른 (반) 자율적 에이전트가 등장함에 따라 법과 윤리 분야가 점점 더 통합되고있다 (예 : Roboethics 참조) .
이러한 종류의 질문에 대답 할 수있는 많은 자료가 있습니다. Stuart Armstrong의 저서 Smarter Than Us , Nick Bostrom의 저서 Superintelligence 는 this edge.org answer , Tim Urban의 설명 또는 Michael Cohen의 설명에서 자랐습니다 .
그러나 여기에 나의 (어느 정도 더 짧은) 대답이 있습니다 : 지능은 모든 의사 결정에 관한 것이며, 우리는 인간이 의사 결정에서 최고의 가능성에 가깝다고 믿을만한 이유가 없습니다. AI AI 연구원 (즉, 컴퓨터를 더 잘 생각할 수있는 방법을 알고있는 컴퓨터)을 만들 수있게되면 인간의 경제적, 군사적 관련성은 인간이 내릴 수있는 모든 결정을 내릴 수 있기 때문에 빠르게 사라집니다. 컴퓨터로 더 나은. (로봇 장군 대신 휴먼 장군, 로봇 엔지니어 대신 휴먼 엔지니어 등이있는 이유)
이것은 반드시 재앙이 아닙니다. 벌컨이 내일 나타 났고 지구에 더 나은 의사 결정을 내렸다면 많은 불행을 피할 수있었습니다. 어려운 부분은 우리가 얻는 것이 우리의 가치를 공유하지 않는 무언가 대신 우리를 원하고 행복하게하는 벌칸임을 확인하는 것입니다.
그는 이것이 일어날 수 있기 때문에 이것을 말한다. 무언가가 우리보다 똑똑해지면 왜 우리에게 계속 봉사 할 것입니까? 최악의 시나리오는 모든 제조 공정을 인수하고 계산할 수있는 재료로 변환하기 위해 모든 물질을 소비하여 모든 물질이 소비 될 때까지 무한히 바깥쪽으로 확장한다는 것입니다.
우리는 AI가 위험하다는 것을 알고 있지만 대부분의 사람들은 AI를 믿지 않기 때문에 중요하지 않습니다. 그것은 종교가 제공하는 모든 위안에 위배됩니다. 인간은 우주의 최후 자이며, 그 사실이 논쟁의 여지가 있다면, 사람들은 제자리에서 벗어난 것처럼 느낄 것입니다.
사실 많은 평판이 좋은 AI 전문가들이 20 년 안에 특이점을 발생 시켰다고해도 대부분의 사람들은 그것이 가능하다는 사실을 인식하지 못하거나 우리의 삶에서 일어날 것이라는 사실을 인정하지 않습니다. 사람들이 인공 지능이 가능한 것보다 더 똑똑하다는 것을 진정으로 인정했다면, 다르게 사는 것은 아닐까요? 그들이 무엇을 하든지 자신이 두려워하는 것이 자동화 될 것이라는 것을 알면서, 그들이 즐기는 일을하려고하지 않습니까? 모든 사람이 보편적 기본 소득을 요구하지 않습니까?
우리가 금지하지 않는 또 다른 이유는 약속이 너무 컸기 때문입니다. 한 연구원은 1,000 명의 디지털 연구 조교에 의해 보강 될 수있었습니다. 모든 육체 노동을 자동화 할 수 있습니다. 처음으로 기술은 우리가 원하는 것을 자유롭게 할 수있는 자유를 제공합니다.
그러나 우리를 추월하지 않는이 최상의 시나리오에서도 인간은 여전히 경제적 시스템을 노동이 필요없는 시스템으로 개조하고 변경해야합니다. 그렇지 않으면 기술 훈련을받지 않은 사람들은 굶어 죽습니다.