아시모프의 법칙은 의도적으로 결함이 있거나 실제로 실현 가능합니까?


19

아이작 아시모프의 유명한 3 가지 로봇 법칙 은 아시모프의 공상 과학 소설의 맥락에서 비롯되었습니다. 이 이야기에서 세 가지 법칙은시의 적절하지 않거나 조작 된 상황이 폭발적으로 폭발하는 것을 피하기 위해 안전 조치로 사용됩니다.

아시모프의 이야기는 종종 그것을 깨뜨리는 방법을 찾아 작가가 법 자체를 몇 가지 수정하도록 이끌었습니다. 예를 들어, 그의 이야기 중 일부에서 그는 제 1 법칙수정 하거나 제 4 법칙 (제 4 법칙 )을 추가 하거나 심지어 모든 법칙을 완전히 제거했습니다 .

그러나 대중 문화와 인공 지능 연구 분야에서도 로봇 법칙이 상당히 심각하다고 주장하기 쉽습니다. 법률에 대한 다양하고 주관적이며 상호 배타적 인 해석의 부수적 인 문제를 무시하고 법 자체가 디자인에 본질적으로 결함이 있거나 실제로 사용하기에 충분히 강하다는 증거가 있습니까? 마찬가지로 목적에 맞게보다 강력하고 안전한 보안 휴리스틱을 설정하고 있습니까?


Killbot Hellscape를 조심하십시오! xkcd.com/1613
NietzscheanAI

우리는 이러한 가능성을 잊지 musn't : xkcd.com/1450은
dynrepsys

Asimov의 법칙은 토론을 시작하려는 작은 시도 일뿐입니다. 훨씬 더 철저한 논의를 위해 Nick Bostrom의 "Superintelligence"를 읽으십시오. 이는 현재의 지식과 이해에 기반한 것만 큼 철저합니다.
Florin Andrei

답변:


12

아시모프의 법은 실제로 사용될 정도로 강하지 않습니다. 영어로 쓰여진 단어가 먼저 주관적으로 해석되어 의미가 전혀 없다는 것을 고려할 때 힘은 고려할 필요조차 없습니다. 이것에 대한 좋은 토론은 여기에서 찾을 수 있습니다 .

발췌문을 작성하려면 :

이런 것들을 어떻게 정의합니까? 거의 모든 문제에 대해 먼저 언급 할 필요없이 "인간"을 어떻게 정의합니까? "인간"이 충분하지 않은 경우 "해"를 정의해야하며 동일한 문제가 다시 발생합니다. 인간의 직관에 의존하지 않는 그 단어들에 대한 거의 확실하고 명확한 정의는 철학의 기묘한 혼란을 초래하여 AI가 실제로 원하지 않는 일을하게합니다.

Asimov가 이것을 알고 충분히 똑똑하고 실제 AI 제어 프로토콜을 설계하는 것보다 스토리 작성에 더 관심이 있다는 것을 쉽게 상상할 수 있습니다.

소설 뉴 로맨 서 (New Neuromancer) 에서 인공 지능은 서로에 대한 수표 역할을 할 수 있다고 제안했다. Ray Kurzweil의 임박한 특이점 , 그렇지 않으면 초 지능적 AGI의 가능성은 인간이 AI를 전혀 통제 할 수있는 가능성을 거의 남기지 않을 수 있으며, 동료 규제를 유일한 가능성으로 남겨둔다.

Eliezer Yudkowsky와 다른 사람들은 Yudkowsky가 말할 수있는 능력을 갖춘 초 지능형 AI의 역할을 수행했지만 잠긴 상자 밖에서는 다른 연결이없는 실험을 진행했다는 점은 주목할 가치가 있습니다. 도전자들은 모든 비용을 들이지 않고 인공 지능을 유지하는 임무를 맡았습니다. Yudkowsky는 두 번 탈출했다.


Yudkowsky 실험의 성적 증명서가 공개되었는지 알고 있습니까? 귀하가 제공 한 링크 (그리고 링크 된 이메일 교환)는 링크를 제공하지 않는 것 같습니다.
NietzscheanAI

@ user217281728 아니요, 찾았지만 계속 유지하고있는 것 같습니다. 즉, 다시 할 가능성을 유지하기 위해 그의 전략을 감싼 것 같습니다. 나는 그가 말한 것과 내가 왜 그렇게 생각하는지에 대해 몇 가지 아이디어를 가지고 있습니다.
dynrepsys

나는 지금 이것을했다.
NietzscheanAI

나는 Asimov가 이것을 알만큼 똑똑하다는 인상을 받았지만 요점 은 간단한 규칙이 작동하지 않는다는 것입니다. 부정적인 예 ( "사람에게 해를 끼치 지 않는다고 말할 수는없고 작동하지 않습니다")를 지적하면 실제 AI 제어 작업 자체가 유용합니다.
Matthew Graves

2

Asimov는 처음에 아무리 합리적으로 보일지라도 세 가지 법률로는 충분하지 않다는 것을 증명하기 위해 세 가지 법률을 구체적으로 만들었습니다 . 나는 그 남자를 아는 남자를 알고 있으며 이것을 확인했다.


2
"나는 그 사람을 아는 사람을 안다"... 좀 더 신뢰할만한 출처가 없습니까? 나는 당신의 대답을 의심하지 않지만, 그 문제에 대해 이미 적절한 인용문이 있어야합니다.
3442

그의 이름은 벤 윌리엄스였습니다. 다음은 Asimov 및 3 가지 법칙에 대한 의견을 설명하는 Google Plus 게시물입니다. plus.google.com/+JohnNewmanIII/posts/HeTnPdhaY9p
Doxosophoi

0

Asimov의 최초 로봇 공학 법칙을 고려하십시오.

로봇은 사람에게 상해를 입히거나 활동이 없어도 사람이 해를 입을 수 없습니다.

자율 주행 차를 고려할 때 그 법은 이미 문제가있다.

여기서 무슨 문제가 있습니까? 아마도 트롤리 문제 로 알려진 윤리적 사고 방식 실험에 익숙 할 것입니다 . 문제의 일반적인 형태는 다음과 같습니다.

트롤리는 똑바로 향하고 있습니다. 기차 마당에서 레버 옆에 약간 떨어져 있습니다. 이 레버를 당기면 트롤리가 다른 트랙 세트로 전환됩니다. 그러나 사이드 트랙에는 한 사람이 있습니다. 두 가지 옵션이 있습니다. (1) 아무 것도하지 않으면 트롤리가 메인 트랙에서 5 명을 죽입니다. (2) 레버를 잡아 당겨 트롤리를 옆 트랙으로 돌리면 한 사람을 죽일 수 있습니다. 올바른 선택은 무엇입니까?

출처 : Wikipedia

자율 주행 자동차는 실제로 트롤리 문제에 대한 실제 변화를 구현해야합니다. 이는 기본적으로 자율 주행 자동차가 인간을 죽 이도록 프로그래밍되어야 함을 의미합니다 .

물론 이것이 모든 로봇을 죽 이도록 프로그래밍해야한다는 것을 의미하지는 않지만 자율 주행 자동차는 로봇 유형의 좋은 예입니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.