AI가 "윤리적으로 차선책"선택을 피하면서 측면으로 생각할 수 있습니까?


13

최근 PC 게임 The Turing Test 에서 AI ( "TOM")는 퍼즐 룸을 통과하기 위해 Ava의 도움이 필요합니다. TOM은 " 측면 적 사고 "가 허용되지 않기 때문에 퍼즐을 풀 수 없다고 말합니다 . 특히 그는 첫 번째 방을 풀기 위해 창문을 통해 상자를 던질 생각을하지 않았을 것이라고 말했다. 그의 창조자들은 이야기가 계속된다. 그런 생각은 압력판에 남겨두기 위해 팔을 자르는 것과 같은 "윤리적으로 차선책"의 해결책을 만들 수 있기 때문에 그 능력을 껐다.

AI의 결과를 합리적으로 유지하기 위해 모든 창의적인 퍼즐 해결 능력을 제거해야합니까, 아니면 팔을 잃지 않고 측면 사고의 이점을 얻을 수 있습니까?

답변:


17

아니 , 하지만 . 시스템에 완전한 윤리 시스템이 있다면 창의적이지만 윤리적 인 문제 해결이 가능하지만 그렇지 않으면 기본적으로 창의성은 안전하지 않습니다.

AI 의사 결정 접근 방식을 보간 사상가와 외삽 사상가의 두 가지 유형으로 분류 할 수 있습니다.

보간 적 사상가들은 그들이 배우고있는 것을 분류하고 모방하는 법을 배우고, 훈련 영역 밖에서 합리적인 결과를 제공하려고 시도하지 않습니다. 당신은 그것들을 훈련 예제들 사이에서 보간하는 것으로 생각할 수 있으며, 다른 통계적 기술로서 모든 수학적 보증과 조항의 혜택을 누릴 수 있습니다.

외삽 사상가들은 기본 원리를 조작하는 법을 배워서 이전에 고려되지 않은 방식으로 그 원리들을 결합 할 수있게합니다. 여기서 직관과 관련된 분야는 수치 최적화 인데,이 중 가장 단순하고 가장 유명한 예는 머신 러닝을 탄생시킨 통계 분야보다는 선형 프로그래밍 입니다. 당신은 그것들을 훈련 예제를 넘어 외삽하는 것으로 생각할 수 있습니다 (실제로 그들 중 많은 사람들이 훈련 예제를 요구하지 않거나 그러한 예제를 사용하여 기본 원리를 추론합니다).

외삽 적 사상가들의 약속은 사람들이 할 수있는 것보다 훨씬 더 빨리 이러한 '측면'솔루션을 제시 할 수 있다는 것입니다. 이 외삽 적 사상가들의 문제점은 언급 할 수없는 명백한 말이 아닌 말이 아닌 원칙을 사용한다는 것입니다.

최적화 문제에 대한 솔루션의 속성은 특징 벡터가 어떤 방식 으로든 '극단적'이라는 것입니다. 선형 프로그래밍에서, 실행 가능한 솔루션 공간 중 적어도 하나의 정점이 최적이 될 것이므로 간단한 솔루션 방법은 최적의 정점을 찾습니다 (이것은 거의 정점이되는 것이 거의 불가능합니다).

다른 예로 우주선을 한 위치에서 다른 위치로 이동하기위한 최소 연료 솔루션을 ' 뱅뱅 (bang-bang )' 이라고 하며, 궤도의 시작과 끝에서 최대한 빨리 우주선을 가속하고 그 사이의 최대 속도로 해안을 항해합니다 .

시스템이 올바르게 이해 될 때의 미덕 ( 많은 경우에 뱅뱅 최적 임)이지만 시스템이 잘못 이해되면 이는 치명적입니다. 여기에서 내가 가장 좋아하는 예는 Dantzig의 다이어트 문제 (토론은 pdf의 5 페이지에서 시작)에서 수학을 사용하여 다이어트를 최적화하려고합니다. 첫 번째 제약 조건에서 그는 하루에 500 갤런의 식초를 마셔야합니다. 두 번째로 200 개의 부용 큐브. 그의 세 번째로 2 파운드의 밀기울. 이러한 나쁜 아이디어를 만드는 고려 사항은 시스템에 구워지지 않으므로 시스템은 그 아이디어를 결백하게 제안합니다.

사람이 이러한 계획을 AI에 판단하는 데 사용하는 지식과 가치를 완전히 인코딩 할 수 있다면 외삽 시스템은 그 사람만큼 안전합니다. 그들은 잘못된 종류의 극단적 인 계획을 고려하고 거부 할 수 있으며 올바른 종류의 극단적 인 계획을 남길 수 있습니다.

그러나 당신이 할 수 없다면 외삽 적 의사 결정자를 세우지 않고 대신 보간 적 의사 결정자를 세우는 것이 합리적입니다. 즉, 목표 X를 어떻게 달성하는 것이 가장 좋은가? "이 상황에서 사람이 무엇을 할 것인가?" 후자는 목표 X를 달성하는 데 훨씬 나빠질 수 있지만 X를 달성하기 위해 다른 목표를 희생 할 위험이 훨씬 적습니다.


2

윤리는 둘 이상의 당사자 간의 요구 관계와 관련됩니다 . 매튜 그레이브스 (Matthew Graves)가 말했듯이, AI가 충분한 인간적 맥락이 부족하다면 (필요를 이해하는 것), 그것은 겉보기에 윤리적 인 행동을 보일 것입니다.

솔직히 말하면, 어떤 사람들 은 다른 사람들의 팔을 잘라 압력판에 올려 놓았습니다. 우리 중 최고조차도 100 % 정확성으로 다른 사람들의 요구에 공감할 수 없을 것입니다. 그리고 실제로 당신이 팔을 자르고 압력판에 올려 놓고, 아마도 사랑하는 사람을 구하기를 원하는 드문 상황 있습니다.

주어진 임의의 상황에서 인간 필요로하는 것에 공감할 수있는 것을 만들 수 있다면 , A) 인공 인간 지능 (AHI) (인간처럼 다소 오류가 발생할 수 있음), 또는 B) 모든 가능한 인간 요구 를 인간의 시간 규모보다 훨씬 빠르게 추론 할 수있는 오라클 - 모든 인간 요구와 솔루션은 공식 사양을 통해 사전 계산 될 수 있으므로 의식적인 AI 가 필요 하지 않습니다. 아마도 터무니없는 생각입니다.


0

프로그래밍을 디자인의 윤리적 인 부분으로 생각할 수도 있습니다. AI는 윤리적으로 중요한 것으로 지시 된 것에 근거하여 행동 할 것입니다. 솔루션을 찾는 프로세스를 위조하는 매개 변수의 일부일 수도 있고 더 세련되고 창의적인 솔루션을 제공 할 수도 있습니다.

우리는 정상적인 상황에서 윤리의 기본 사항을 이해하지만 윤리적 수수께끼에서 인간이 어떻게 행동 할 것인지 예측할 수 없다면 AI가하지 않는 일을 시행 할 수 있습니다.

AI를 유도하는 메커니즘을 제어 할 수 있다면 윤리적 안전 장치를 주입 할 책임이 있습니다. 문제는 지시 사항을 무시할 수있는 자체 학습 AI에 있습니다. (CF Asimov Laws)

이 경우 AI가 창조적 인 방식은 무의미합니다.


-1

이 중 많은 부분이 고려의 폭에 달려 있습니다. 예를 들어, 측면 사고의 중장기 적 영향은 무엇입니까? 로봇은 압력판을 위해 팔을 절단 할 수 있었지만 더 이상 팔이없고 기능상의 제한이있어 피가 나거나 죽거나 심하게 구속 될 수 있으며 사람 (및 사람이 general) 더 이상 협력하지 않으며 로봇을 제거하려고 시도합니다. 사람들은 이러한 측면을 고려하기 때문에 측면으로 생각할 수 있습니다. 윤리는 실제로 이러한 고려 사항을 포함하는 일련의 지침에 지나지 않습니다. 로봇은 이러한 외부 성을 고려하도록 설계되어야했다.

다른 모든 것이 실패하면

아시모프의 로봇 법칙 : (0. 로봇은 인류에게 해를 끼치 지 않거나, 무 활동으로 인해 인류가 해를 입히게 할 수 없습니다.) 1. 로봇은 인간을 해치지 않거나 무 활동으로 인해 인간이 오게 할 수 없습니다 해. 2. 로봇은 명령이 제 1 법칙과 상충되는 경우를 제외하고 인간이 제공 한 명령에 따라야합니다. 3. 로봇이 제 1 법칙 또는 제 2 법칙과 충돌하지 않는 한 로봇은 자신의 존재를 보호해야합니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.