자율 주행 자동차는 어떻게 누가 죽일 것인지에 대한 윤리적 결정을 내릴 수 있습니까?


74

자율 주행 자동차는 완벽하지 않기 때문에 Google 자동차 (예를 들어)가 어려운 상황에 처했다고 상상해보십시오.

다음은 일련의 이벤트로 인한 불행한 상황의 몇 가지 예입니다.

  • 차는 길을 건너는 10 명의 군중으로 향하고있어 제 시간에 멈출 수는 없지만 벽에 부딪쳐서 10 명을 죽이는 것을 피할 수 있습니다 (승객 사망).
  • 자동차 승객의 생존 가능성이 더 크다는 점을 고려하여 오토바이 운전자를 죽이지 마십시오.
  • 인간을 위해 거리에서 동물을 죽이고
  • 개를 죽이지 않기 위해 다른 차에 충돌하도록 차선 변경

그리고 여기 몇 가지 딜레마가 있습니다 :

  • 알고리즘은 인간과 동물의 차이를 인식합니까?
  • 인간이나 동물의 크기가 중요합니까?
  • 앞 좌석 인원수는 몇 명입니까?
  • 아기 / 어린이가 탑승 할 때 "알고 있습니까?"
  • 나이를 고려합니까 (예 : 나이가 많은 사람을 먼저 죽이는가)?

알고리즘은 기술적 인 관점에서 어떻게해야합니까? 위의 내용을 알고 있거나 (사망 확률을 세는) 그렇지 않은지 (사람들이 자신의 파괴를 피하기 위해 살해하는 것)?

관련 기사:


3
ME를 승객에게 최고의 안전 우선 순위로 만들지 않도록 프로그래밍 된 차량에는 탑승하지 않습니다. 나는 그 생각에 혼자가 아닙니다. 자율 주행 차 제조사가 승객의 안전을 우선시하는 것 이외의 다른 일을하도록 차량을 프로그래밍하도록 강요 할 계획이 있다면, 전체 산업계는 이제 문을 닫을 수 있습니다. 끔찍한 윤리적 결정으로 인해 승객이 사망 한 첫 두 번은 대다수의 사람들이 다른 자율 주행 차를 구매 한 마지막 시간이 될 것입니다. 누가 죽음의 함정에 타고 싶어?
덩크

소위 "트롤리 문제"는 트롤 문제입니다. 사례 연구가 아닌 사고 실험으로 알려진 이유가 있습니다. 그것은 결코 일어난 일이 아닙니다. 자동차는 기본적으로 트롤리가 아니기 때문에 실제와 가깝지는 않습니다. 원격으로 적용 가능한 모든 경우의 정답은 거의 항상 "브레이크를 밟는 것"입니다. 예외가있을 경우, 자동차 주민을 모든 비용으로 보호하고 다른 어떤 것도 고려하지 않음으로써 한 가지 방법으로 만 해결할 수 있습니다. 두 가지 이유가 있습니다.
메이슨 휠러

2
첫 번째 @@ Dunk는 실용주의를 잘 다루었습니다. 자동차가 다른 선택을 할 수 있다면, 올바른 마음을 가진 사람은 아무도 사고 싶어하지 않을 것입니다. 두 번째는 자동차의 컴퓨터에 "모든 사람을 죽이십시오"기능이 내장되어 있다면 악의적 인 해커가 찾아 악용 할 수 있다는 의미입니다. 누군가가 합법적 인 트롤리 문제 상황에 대한 순수한 가상의 아이디어에 대항하여 적대적인 의견을 제시 할 수있는 방법을 찾아 낼 수있는 실질적인 기회를 고려해보십시오.
메이슨 휠러

답변:


54

자율 주행 자동차는 어떻게 누가 죽일 것인지에 대한 윤리적 결정을 내릴 수 있습니까?

해서는 안됩니다. 자율 주행 자동차는 도덕적 대리인이 아닙니다. 자동차는 예측 가능한 방식으로 실패합니다. 말은 예측 가능한 방식으로 실패합니다.

차가 길을 건너는 10 명의 군중으로 향하고 있기 때문에 제 시간에 멈출 수는 없지만 벽에 부딪쳐서 10 명을 죽이는 것은 피할 수 있습니다 (승객 사망).

이 경우, 자동차는 브레이크를 밟아야합니다. 10 명이 죽으면 안타깝습니다. 우리 는 차 밖에서 일어나는 일에 대한 우리의 모든 믿음을 믿을 수 없습니다 . 만약 그 10 명이 실제로 사람처럼 보이도록 만들어진 로봇이라면 ? 그들이이 있다면 시도 를 죽일?

생존 가능성이 자동차 승객에게 더 크다는 점을 고려하여 오토바이 운전자를 죽이는 것을 피하고,

다시, 이러한 종류의 감정을 차량에 하드 코딩하면 "가짜" 오토바이 운전자를 포함하여 모든 종류의 공격까지 차량의 라이더가 열립니다 . 인간이하는 거의 모든 경우, 자신의에서 이러한 결정을 내릴 장착. 의심 스러우면 브레이크를 돌리십시오.

길거리에서 인간을 위해 동물을 죽이고

다시 한번 브레이크를 누르십시오. 아기라면 어떨까요? 폭탄이라면 어떡하지?

개를 죽이지 않기 위해 다른 차에 충돌하도록 차선을 바꾸고

아니. 개는 잘못된 시간에 잘못된 장소에있었습니다. 다른 차는 아니었다. 브레이크를 최대한 안전하게 밟으십시오.

알고리즘은 인간과 동물의 차이를 인식합니까?

인간입니까? 항상 그런 것은 아닙니다. 인간이 총을 가지고 있다면 어떨까요? 동물의 이가 큰 경우 어떻게해야합니까? 문맥이 없습니까?

  • 인간이나 동물의 크기가 중요합니까?
  • 앞 좌석 인원수는 몇 명입니까?
  • 아기 / 어린이가 탑승 할 때 "알고 있습니까?"
  • 나이를 고려합니까 (예 : 나이가 많은 사람을 먼저 죽이는가)?

인간은 이러한 것에 동의 할 수 없습니다. 이런 상황에서 경찰에게 무엇을해야하는지 물어 보면 대답 할 수 없을 것입니다. 8 % 더 많은 생명을 구했을 것입니다. " 경찰은 단지 "자동차를 가능한 한 빠르고 안전하게 정차시켜야합니다"라고 말합니다. 왜? 경찰은 사람들이 일반적으로 고속 충돌 시나리오를 처리 할 능력이 없다는 것을 알고 있기 때문에.

"자율 주행 자동차"에 대한 우리의 목표는 '인간과 동등한 도덕적 대리인'이되어서는 안됩니다. 바퀴벌레의 반응성 복잡성을 가진 물질이어야하며, 이는 예상대로 실패합니다.


이러한 시나리오의 대부분에서 잠재적으로 사망 한 사람들은 자동차 / 자동차 탑승자보다 손상에 더 큰 결함이 있습니다. 지적했듯이 실제로 탑승자를 살해하는 방법으로 보행자 대신 탑승자를 죽여 (잠재적으로) 행동하는 알고리즘을 사용하여 잠재적으로 탑승자, 자동차 또는 제조업체에게 책임을 물을 수 있습니다.
Clearer

48

이러한 많은 질문에 대한 답변은 장치 프로그래밍 방법에 따라 다릅니다. 주변을 돌아 다니면서 길을가는 곳을 인식 할 수있는 컴퓨터는 윤곽, 이미지 또는 크기에 상관없이 사람과 동물을 시각적으로 구별 할 수있는 능력이 있습니다. 이미지를 충분히 선명하게 인식하면 다른 차량에있는 사람들의 수와 종류를 계산할 수 있습니다. 심지어 다른 종류의 차량에있는 사람들의 부상 가능성에 대한 기존 데이터를 사용할 수도 있습니다.

궁극적으로 사람들은 관련된 윤리적 선택에 동의하지 않습니다. 아마도 "생명 만 고려"대 "어린의 삶이 더 중요하다"와 같이 사용자 / 소유자가 구성 할 수있는 "윤리 설정"이있을 수 있습니다. 나는 개인적으로 기계가 인간에게 해를 입히기 전에 스스로를 손상시켜야한다는 것은 논란의 여지가 없다고 생각하지만 사람들은 애완 동물의 삶이 얼마나 중요한지에 대해서는 동의하지 않습니다. 명시적인 kill-this-first 설정으로 인해 사람들이 불안 해지면 답변은 사용자에게 제공된 설문지에서 확인할 수 있습니다.


2
내 마음의 가장 깊은 부분에서 편집 윤리 설정이 나쁜 생각이라고 생각합니다. 그것이 실제로 사람이 아닌 기계라는 사실 이외의 사실이 무엇인지 확실하지는 않지만, 나는 우리가 다른 사람과 차를 탈 때마다 사람이 윤리적 결정을 구독한다는 서면 계약이 이미 있다는 결론에 도달합니다.
Ian

6
'윤리 설정'? 정말? 당신은 사람들이 가능한 편견에 따라 그것을 설정하게 할 것입니다. '가장 ____ 인 사람을 죽이십시오'동성애자? 가장 좋아하는 레이스? 아니면 충돌 운전자의 두 차량이 반대 윤리를 가지고 있다면 어떨까요? 그렇다면 둘 다 처형되고 추가적인 외적 피해가 있습니까? 이러한 법률은 도로 법률과 마찬가지로 보편적이어야합니다 (적어도 한 국가 내에서).
navigator_

3
@navigator_ 제조업체가 제공 한 옵션이 적절한 이유가 있기를 바랍니다.
Ben N

1
그래도 누구에 의해 정의 된 이유? 그건 내 요점이야
navigator_

3
실제로 "윤리 설정"은 유일하게 실행 가능한 / 공정한 옵션이라고 생각합니다. 특정 드라이버를 최대한 가깝게 모방하기 때문입니다. 그러면 자동차 운전자는 마치 마치 마치 운전하는 것처럼 결과적으로 발생하는 모든 일에 대해 책임을 져야합니다. 나는 (예를 들어) 운전자의 삶을 다른 것보다 먼저하기 위해 자동차를 프로그래밍하는 것이 운전자의 삶을 다른 것보다 먼저하는 것과 어떻게 다른지 알 수 없습니다.
판도라

26

개인적으로는 이것이 과장된 문제 일 수 있습니다. 트롤리 문제는 상황이 "3 차 옵션"을 방지하도록 최적화 된 경우에만 발생합니다.

차에 브레이크가 있습니까? "하지만 브레이크가 작동하지 않으면 어떻게합니까?" 그럼, 차를 전혀 운전할 수 없습니다. 정기적 인 교통 상황에서도 작업자는 볼 수있는 영역 내에서 멈출 수 있도록 속도를 제한해야한다고 배웁니다. 이와 같은 솔루션은 트롤리 문제의 가능성을 줄입니다.

동물에 관해서는 ... 길에서 인간을 다루려는 명백한 노력이 없다면 동물도 똑같이 취급 될 것입니다. 이것은 불가능하다고 들립니다.로드 킬은 자주 발생하고 인간의 "로드 킬"은 원치 않지만 동물은 인간보다 훨씬 작고보기 어렵 기 때문에 인간을 감지하는 것이 더 쉬울 것이므로 많은 사고를 예방할 수 있다고 생각합니다.

다른 경우 (버그, 운전 중 결함, 서로에 여러 번 쌓임) 사고가 발생하여 분석되고 유사한 상황이 발생하지 않도록 차량이 업데이트됩니다.


인공 지능은 사람들이 방어 운전을하는 경우에도 마찬가지이기 때문에 그들이 보는 것에서 멈출 수있을 정도로 빨리 운전할 것이라고 말하는 것은 잘못입니다. 그 이유는 반드시 가정해야한다는 것입니다. 언덕을 만들 때 큰 장애물이 보이지 않는 것으로 가정합니다 [Source DARPA Grand Challenge]. 이러한 가정은 올바른 행동을 결정하기위한 도로 규칙에 근거합니다. 따라서 사고가 발생하면 도로 규칙을 준수하는 한 책임을 줄일 수 있습니다. 따라서 자동차는 이러한 결정을 내릴 수 있어야하지만 제한적인 방식으로 소비자를 보호해야합니다.
Harrichael

12

이것은 잘 알려진 트롤리 문제 입니다. 로 벤 N이 말했다, 사람들은 트롤리 문제 시나리오에 대한 행동의 오른쪽 과정에 동의하지만, 스스로 운전하는 자동차로, 신뢰성이 시나리오는 정말 가능성이 너무 높은 것을 주목해야한다. 따라서 적어도 단기적으로는 설명하려는 문제에 많은 노력을 기울이지 않을 것입니다.


트롤리 문제가 실제로 얼마나 적합한 지 궁금합니다. 트롤리 문제는 본질적으로 불 연속적이며 '한 번에 모두를위한'선택을 설명하는 반면, 실제로 알고리즘은 새로운 정보를 이용할 수있게되면 (잠재적으로는 작은) 시간 단위로 선택 순서 를 만들어야 합니다. 유용한 알고리즘은 실제 3D 공간에 포함 된 '연속 제어'문제 일 가능성이 높으며 추상적이고 개별적인 도덕적 결정이 아니라 속도와 확률을 처리합니다. 다른 것이 없다면, 구현이 그러한 도덕적 용어로 정의 될 필요가 없다는 것을 의미 할 것이다.
NietzscheanAI 9

1
@NietzscheanAI 트롤리 문제에 대한 아이디어는 어떤 결정을 내리는 것이 아니라, 어떤 결정을 내려야 하는가에 있습니다. 도난, 사람 수, 동물 수, 결함이있는 사람, 운전자 안전, 더 큰 변화, 최소한의 변화 등을 고려해야 할 경우에도 트롤리 문제에 확률을 적용 할 수 있습니다. 루트 A는 30 %의 확률로 10 명을 죽일 수 있습니다. 트롤리 문제는 일반적으로 두 가지 경로를 포함하므로 윤리적 결정의 기반이되는 요소를보다 정확하게 고려할 수 있습니다.
Harrichael

11

실제로는 법률에 따라 결정이 내려지고 법에 의해 언급 된 바와 같이 법은 일반적으로 행동에 대한 무 활동을 선호합니다.


아, 그것은 인간 희생자들에게 많은 의미가 있습니다. 차가 보행자 대신 개를 때리기 위해 움직일 수 있다면 법의 선택이 다를까요?
벤 N

6

단일 실체가 설계 한 무인 자동차의 경우, 누가 죽일 것인지 결정하는 가장 좋은 방법은 가능한 책임을 추정하고 최소화하는 것입니다.

해당 지역의 모든 잠재적 피해자를 정확하게 식별하여 결정에 대한 방어를 할 필요는 없으며, 사람과 사람을 모두 식별 할 수 있습니다.

차량에있는 모든 사람의 나이와 신체 상태를 알 필요는 없습니다. 정보를 요구할 수 있고 거부 할 경우 승객이 정보를 제공하지 않기로 결정했기 때문에 정보를 박탈 할 책임이 있습니다. 더 나은 결정을 내릴 수있는 능력.

소송에 대한 기업의 노출을 최소화하기위한 실행 가능한 모델 만 있으면되며, 시간이 지남에 따라 더 수익성이 높아질 수 있습니다.


6

"누구를 구해야하는이 도덕적 인 질문 : 엔지니어링 작업의 99 %가 이러한 상황이 전혀 발생하지 않도록하는 것입니다."—Christoph von Hugo, Mercedes-Benz

이 인용문은 2016 년 11 월 8 일에 검색된 2016 년 10 월 7 일자 발간 된 보행자보다 운전자를 보호하는 메르세데스-벤츠의 운전자 우선 순위 기사 입니다.

여기에 문제에 대한 기술적이고 실용적인 해결책이 요약되어 있습니다.

세계에서 가장 오래된 자동차 제조업체는 트롤리 문제로 알려진 1967 년의 질문과 유사한 문제를 더 이상 문제로 간주하지 않습니다. 메르세데스-벤츠는 위기 상황에서 도덕적이고 윤리적 인 매듭에 묶기보다는 자율 주행 차를 프로그래밍하여 차 안에있는 사람들을 구하려고합니다. 매번

자동차 제조업체의 운전자 보조 시스템 관리자 및 능동 안전 관리자 인 Christoph von Hugo에 따르면 메르세데스-벤츠의 미래 레벨 4 및 레벨 5 자율 주행 자동차는 모두 탑승자를 절약하는 데 우선 순위를 둘 것입니다.

이 기사에는 다음과 같은 매력적인 단락도 포함되어 있습니다.

사이언스 지가 연중 발표 한 연구 는 공기를 깨끗하게하지 않았다. 설문 조사에 참여한 1928 명의 대다수는 자율 주행 차가 보행자와 충돌하지 않고 탑승자를 희생하는 것이 윤리적으로 더 좋을 것이라고 생각했다. 그러나 대다수는 또한 자동차가 보행자 안전보다 우선 순위가 높은 경우 자율 주행 차를 구매하지 않을 것이라고 말했다.


3

솔직히 말해서이 문제 (트롤리 문제)는 본질적으로 너무 복잡합니다. 실제 솔루션은 매우 간단하기 때문입니다. 인간 운전자와 마찬가지로 AI 운전자는 항상 일반적으로 윤리적 인 방식으로 행동하도록 프로그램되어 항상 해를 끼치 지 않거나 가능한 가장 해를 끼치 지 않는 행동을 선택합니다.

AI 운전자가 급박 한 재산 피해와 같은 위험에 직면 할 경우, AI는 충돌을 피하거나 최소화하기 위해 자동차를 세게 밟을 수있는 물체에서 멀리 향하게합니다. 보행자 나 자동차 나 건물에 위험이 닥친다면 건물이나 개보다 사람에게 더 큰 가치를 부여하는 가장 해롭지 않은 일을 해낼 수있는 가장 귀중하거나 값 비싼 물건과 충돌하도록 선택합니다.

마지막으로, 자동차 AI 운전자의 선택이 아이를 뛰어 넘거나 벽에 부딪히는 것이면 자동차 와 당신 이 벽으로 향하게됩니다 . 그것이 좋은 인간이하는 일입니다. 좋은 AI가 왜 다르게 행동할까요?


1
'AI가 제동 할 것입니다', '충돌하기로 선택합니다 ...', 만약 이것이 진술이라면, 참고 문헌을 게시 할 수 있습니까? 아니면 의견을 기반으로합니까?
kenorb

1
OP는 "AI가 어떤 피해를 입을 까?"라고 질문했다. 나는 그것이 잘못된 목표라고 생각합니다. 인간은 그렇게하지 않습니다. 대신 AI는 피해를 피하고 가능한 한 적은 피해를주는보다 일반적인 전략을 따릅니다. 이 최적화 목표는 책임 문제가 발생할 때 더 직관적이고 논쟁하기가 어렵습니다.
랜디

3

그들은해서는 안됩니다. 사람들은해야합니다.

사람들은 윤리적 결정의 책임을 컴퓨터에 맡길 수 없습니다. 컴퓨터 과학자 / AI 전문가는 컴퓨터의 의사 결정을 프로그램하는 것이 우리의 책임입니다. 이로 인해 인명 피해가 계속 발생합니까? 물론 그들은 --- 사람은 완전하지 않으며 프로그램도 아닙니다.

이 주제에 대한 훌륭한 토론이 여기에 있습니다 . 나는 특히 환자에게 치명적인 약물을 시험하는 평행 윤리적 딜레마에 관한 Yann LeCun의 주장을 좋아한다. 자율 주행 자동차 와 마찬가지로 장기적으로 더 많은 사람들을 구하려는 의도를 갖고 있으면서도 치명적일 수 있습니다 .


3

자율 주행 자동차는 어떻게 누가 죽일 것인지에 대한 윤리적 결정을 내릴 수 있습니까?

법적 책임 및 소비자 안전 관리

소비자 안전을 제공하는 자동차는 해당 소비자가 구매하는 자동차가 될 것입니다. 회사는 고객을 죽이는 것에 대해 책임을지지 않으며 법적인 어려움에 처하게하는 제품을 판매하기를 원하지 않습니다. 법적 책임과 소비자 안전은 "소비자 비용"의 관점에서 볼 때 동일한 문제입니다.

그리고 여기 몇 가지 딜레마가 있습니다 :

  • 알고리즘은 인간과 동물의 차이를 인식합니까?

동물 / 인간을 합법적으로 피할 수없는 경우 (그리고 자동차가 합법적 인 권리에 있습니다. 그렇지 않은 경우 AI의 의사 결정에 문제가있는 경우) 그렇지 않을 것입니다. 자동차가 장애물을 안전하게 피할 수 있다면 AI는 이러한 결정을 내리는 것을 합리적으로 볼 수 있습니다. 열린 고속도로에서 다른 차선으로 이동하십시오. 책임과 운전자 안전에 중점을 둡니다.

  • 인간이나 동물의 크기가 중요합니까?

장애물에 부딪 칠 위험 요소 만. 하마를 때리는 것은 도랑을 때리는 것보다 바람직하지 않을 수 있습니다. 개를 때리는 것이 고객의 자동차를 부수는 것보다 더 바람직합니다.

  • 앞 좌석 인원수는 몇 명입니까?

카풀 링 레인을 이용할 수 있는지 확인하기 위해 승객으로 간주합니다. 충돌시 전방 사람들을 위험 요소로 계산합니다.

  • 아기 / 어린이가 탑승 할 때 "알고 있습니까?"

아니.

  • 나이를 고려합니까 (예 : 나이가 많은 사람을 먼저 죽이는가)?

아닙니다. 이것은 단순히 결정을 내리기위한 잘못된 추상화입니다. 위험 요소를 줄이기 위해 올바른 행동 경로를 선택하는 데 어떻게 가중치를 적용 할 수 있습니까? 만약 옵션 1이 20 %의 큰 입주자 피해를 입었고 법적 책임이없는 젊은 남자에게 맞고 옵션 2가 21 %의 큰 탑승자 피해를 입었고 법적 책임이없는 경우, 철학자는 1 명의 사람 만 설득 할 수 있습니다 결정을 내리는 정당하고 공평한 가중치?

고맙게도, 많은 시간을 할애하는 가장 좋은 결정은 속도를 줄이기 위해 휴식을 취하는 것입니다 (특히 보행자와 운전자가 그에 따라 반응 할 수 있도록 예측 가능한 행동을하는 것이 종종 가치가 있다고 생각할 때). 한편, 운전자가 나쁜 결정을 내릴 때와 반대 행동을하는 것보다 다른 행동이 휴식을 취하는 것보다 더 유익한시기를 예측하는 측면에서 더 나은 가치 개선이 이루어질 수 있습니다. 이 시점에서 철학자들이 제안한 윤리적 결정을 내리기 위해 정보 수집을 시작하는 것조차 가치가 없습니다. 따라서이 문제는 선정적인 언론인과 철학자들에 의해 과장된 것입니다.


2

대부분의 경우 자동차는 기본적으로 특정 선택을 향하거나 이탈하기보다는 속도를 주요 옵션으로 낮추는 것으로 생각합니다. 다른 사람들이 언급했듯이, 윤리와 관련된 설정을 갖는 것은 나쁜 생각입니다. 반대의 윤리적 설정으로 프로그래밍되고 충돌하려고하는 두 대의 자동차는 어떻게됩니까? 자동차는 잠재적으로 사용자 설정을 무시하고 가장 유익한 솔루션을 선택할 수있는 시스템을 보유 할 수 있습니다. 실제로 흥미로운 개념이며 널리 구현되기 전에 반드시 논의하고 표준화해야 한 개념입니다. 기계적인 결정에 윤리적 의사 결정을 내리면 그 결과로 초래되는 책임을 이해하기 어려워집니다.


예, 충돌을 피하기 위해 제동하는 것이 절대적으로 최선의 해결책입니다. 불행히도, 어떤 경우에는 (질문에서 묻는 경우), 무언가를 때리는 것은 피할 수 없습니다. 기존 답변에 동의하는 것 같습니다. 우리는 각 답변이 저절로 설 수 있기를 바랍니다. 평판이 충분하면 도움이된다고 생각되는 답변을 찬성 할 수 있습니다. 반대로 구성된 두 대의 자동차의 문제는 실제로 흥미 롭습니다. 답변을 수정 하여 확장 하면 좋을 것 입니다. 감사!
벤 N

답장을 보내 주셔서 대단히 감사합니다. 실제로 정말 감사 드리며 앞으로 사이트에서 사용할 것입니다. 답변에 대한 지침을 알지 못했습니다.
imhotraore

1

나는 그런 윤리적 설정을 자동차에서 편집하는 방법이 없을 것이라고 생각합니다. 그러나 휴대 전화가 루팅 될 수 있다면 왜 자동차가 아닌가? 미래에 원하는 모델을 수행 할 수있는 특정 모델을위한 Linux 빌드가있을 것이라고 생각합니다.

누가 그러한 결정을 내릴지는 오늘날의 개인 정보 보호 문제와 매우 비슷합니다. OS 제공 업체 (각각 고유 한 방법으로 부상당한 사람들을 최소로 설정하려고 시도 함), 보험 회사 (귀하의 지불을 시도 할 사람)에 의해 담요에 대한 줄다리기 통계적으로 자동차를 더 쉽게 손상시키는 것으로 보이는 OS 및 자동차 제조업체 (가능한 한 빨리 차를 쓰레기로 버리기를 원하므로 새 차를 사거나 말도 안되는 자동차를 만드는 것) $$$ 서비스 금액).

그런 다음 일부 내부 고발자가 나오면 어른보다 어린 아이들을 죽이기로 선택한 코드가 노출 될 것입니다. 왜냐하면 동물과 구별하기가 더 어려워서 더 확실하게 사람으로 인식 할 사람을 구할 수 있기 때문입니다. OS 제조업체는 대중으로부터 헤드 슬랩을 얻게되고 새로운 합의가 이루어집니다. 내부 고발자도 보험 회사와 자동차 제조업체로부터 나올 것입니다.

인류는 뜨거운 프라이팬을 잡고 스스로 태워서 미리 장갑을 끼는 법을 배웁니다. 내 충고는 당신이 그런 손을 갖지 않도록 할 것입니다-모든 초기 실수가 일어날 때까지 몇 년 동안 그들에게서 떨어져 있으십시오.


1

현명한 선택은 예측 가능한 행동을 이용하는 것입니다. 자동차 시나리오를 앞둔 사람들의 경우 : 먼저 자동차가 브레이크를 밟으면 서 동시에 경적을 울리고 코스를 유지합니다. 그런 다음 사람들은 제로 사람들을 죽이는 길을 벗어날 수 있습니다. 또한 풀 브레이크 (시간당 50km에서 0으로 이동하는 길이는 3 대의 차량 길이보다 적음)를 사용하면 충격 상황을 거의 상상할 수 없습니다. 완전히 정지 할 수 없더라도 보행자에게 심각한 피해를 줄 가능성은 없습니다.

다른 시나리오는 미쳤다. 따라서 거리는 3 대의 차 길이보다 작아야하며, 스티어링에 필요한 차의 길이는 1 대 이상이어야합니다. 차 충돌은 통제 할 수없는 상황이며, 11 명의 사람이 모두 돌아가고 죽일 수 있습니다.

딜레마가있는 실제 사례는 없다고 생각하는 것 외에도; 상대방이 상황을 완화 할 수 있도록 상대방의 기대에 부응 할 경우 이러한 가능성이없는 경우의 해결책.


Ben이 게시 한 첫 번째 답변을 살펴보고 AI가 무엇인지에 따라 편집하십시오.
Quintumnia

좀 더 구체적으로 할 수 있습니까? 나는 bens first answer를 읽었지만 이것이 어떻게 관련되어 있는지 알지 못합니다. '모든 AI가 무엇인가'를 설명 할 수 있습니까?
lalala

내가 의미 한 바는 AI에 대해 잘 알고 있어야하므로 답이 헛되거나 투표권이없는 것입니다.
Quintumnia

@quintumnia이 답변은 나에게 괜찮아 보입니다 (+1).
벤 N
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.