답변:
로봇을 때리는 아이들이 새로운 탈출 기동 시스템에 영감을 주는 기사 는 감독하지 않은 아이들이 로봇을 공격하게 만드는 일본 쇼핑몰에서의 실험에 관한 두 개의 연구 논문을 기반으로합니다. 관심있는 연구 논문 은 아동용 로봇 로봇 남용에서 탈출하는 것 입니다.
이 연구 논문에서 연구자들은 어린이들이 학대 할 확률을 줄이기 위해 계획 시뮬레이션을 따르도록 로봇을 프로그래밍 할 수있었습니다. 로봇이 어린이를 감지하면 로봇은 많은 어른들에게 후퇴하도록 프로그래밍됩니다 (필요한 경우 어린이를 징계 할 수 있음). 연구원들이 문제의 쇼핑몰에서 로봇을 때리는 어린이들만 발견했기 때문에 이런 일이 일어났습니다.
그들은 다른 옵션을 시도하는 것에 대해 토론합니다.
이 작업에서 남용을 방지하기위한 로봇의 전략은 "탈출", 즉 남용 가능성이 적은 곳으로 이동하는 것이 었습니다. 로봇이 남용을 극복 할 수없는 이유를 물을 수 있습니다. 예비 시험에서 우리는 몇 가지 접근법을 시도했지만 로봇이 아이들이 그것을 남용하지 않도록 설득하는 것은 매우 어렵다는 것을 발견했습니다. 예를 들어, 우리는 강력한 단어, 정서적 또는 공손한 표현을 사용하여 로봇의 문구를 여러 가지 방식으로 변경했지만 그중 어느 것도 성공하지 못했습니다. 부분적으로 성공한 전략 중 하나는 로봇을 '물리적으로'아이들을 밀어주는 것이었다. 길을 막을 때, 마치 마치 어린이와 충돌하고 마치 (사람의 작업자의주의 깊은 감시하에) 힘을 들이지 않는 것처럼 행동하려고합니다. 우리는 처음에 아이들이 로봇의 요청을 받아들이고 그에 순종 한 것을 관찰했습니다. 그러나, 머지 않아 그들은 로봇보다 강하다는 것을 알았으므로 밀면 이길 수 있고 범퍼 스위치 (안전을 위해 로봇에 부착되어 있음)를 밀어서 멈출 수 있습니다. 그것을 깨달은 후, 그들은 욕설을 계속했다. 분명히 로봇이 더 강하면 안전과 사회적 수용에 문제가 생길 수 있으므로 그러한 혹독한 상황을 다루는 것은 여전히 어려운 일입니다.
그러나 질문을 더 심문 해 봅시다.
의식이있는 AI가 가능하고 광범위하게 퍼져 있다면 AI를 고문하기 위해 무엇을하고 있는지 아는 사람이 쉽지 않을까요?
왜 그런 고문이 틀렸다고 생각 하십니까? 결국, 고문하면 기계가 실제로 '경험'이 아니라고 주장 할 수 있습니다. 따라서 기계를 고문하는 것은 도덕적으로 괜찮습니다. 마치 통증이있는 것처럼 반응 할 수 있지만 "통증 상태"와 같은 감정 상태를 시뮬레이션하는 능력이 실제로 해당 감정 상태 에 있는 것과 같은지 여부는 모호합니다 . 감정 상태의 시뮬레이션이 실제로 감정을 경험하는 것과 동등한가? 라는 질문을보십시오 . 이 주제에 대한 자세한 내용은
그러한 주장을 할 수는 있지만 대부분의 인간은 기계에 대해 공감 을 느끼기 때문에 실제로 감정적 인 수준에서는 효과가 없습니다 . 논리적으로 정당화하기 어려울 수 있습니다 (그리고에 종사하는 사람 '경향에 근거 할 수있다 신인 동형 ), 그러나 우리는이 공감을 느낍니다. 이 공감을 통해 처음에이 질문을하게되었고, 연구원들이 로봇을 구타하는 것을 방지하는 방법을 알아 내고 경찰관 이 술취한 일본인을 SoftBank 로봇을 때리고 체포하여 많은 인간을 만들었습니다. hitchBOT 의 파괴에 화가 . 그리고 그것은인공 지능 남용을 피하는 방법-인간 공감. 대부분의 인간이 기계의 복지에 관심이 있다면 기계를 남용 할 수 있고 기꺼이 남길 수있는 소수의 인간을 막는 것이 우선 순위가 될 것입니다.
편집 : OP는 로봇이 아니라 소프트웨어 에 대해 이야기하고 있음을 분명히하기 위해 질문 을 편집했습니다 . 로봇의 경우 의인화에 의존하여 어느 정도의 동정심을 얻을 수는 있지만 원시 코드를 동정하는 것은 어렵습니다.
알고리즘 남용을 멈추지 않을 것입니다. 솔직히 말해서 알고리즘은 우리와 다르기 때문에 로봇과 같은 종류의 공감을 확장하지는 않을 것입니다. 챗봇조차도 다소 유쾌합니다. 사람들이 코드 라인에 공감하도록 할 수 있다면 (아마도 감정과 현명함을 설득력있게 시뮬레이션함으로써) 위의 대답이 적용됩니다. 우리는 아직 그 수준이 아니므로 "AI 학대 중지"가 우선 순위가 낮습니다.
에 설명 된대로 그럼에도 불구하고, 일부 failsafes는, 학대의 피해를 최소화하기 위해 프로그램 할 수 chatbot 남용에이 스레드 가해자 느낌이 지루 및 이동 다음 타겟으로 만들기 위해 지루한 방식으로 봇 응답을 가해자 다시 응답 - "전투의 전투"에서, 또는 학대자들이 서비스를 사용하지 못하도록 막는 것까지.
이러한 안전 장치는 악용 을 방지 하고 응답하지 않으려는 사람들에게 차갑 습니다.
또한 ... 학대자는 AI를 프로그래밍하여 마음의 내용을 남용하는 방법을 즐겁게 배울 수 있습니다. 이를 막기 위해 할 수있는 일은 없으며, 남용을 막기 위해 가능한 모든 조치 (예 : AI를 남용으로 프로그래밍하지 않도록 모든 사람을 모니터링하는 등)는 해결하는 것보다 더 많은 피해를 입힐 수 있습니다.
사람들이 다른 사람들을 학대하는 것을 막으려 고 시도한 모든 방법을 살펴 보시기 바랍니다. 여기에는 윤리적 인 회색 영역이 없습니다. 모든 사람이 이것이 잘못되었다는 것은 분명합니다. 그럼에도 불구하고 사람들은 매일 수백만 명의 살인, 강간, 폭행을 당하고 있습니다.
우리가 인간 희생자와 관련하여이 문제를 해결할 때, 결과적인 해결책은 AI에도 잘 작동 할 것입니다.
인공 지능과 공격적인 외부 관점을 복제 할 수 없음 프로그램이 우리의 자연 지능과 같이 교육되거나 설계되지 않았습니다 AI의 데이터는 우리의 디자인이 특허가 아니기 때문에 경험을 자라서 개발 된 정서적 사회적 사고 과정에 따라 인문 지능과 비교할 수 없습니다 인공 지능의 프로그래밍과 같은 사례만으로 공학 이론을 통해 복제 된 경험은 사람이 지식을 만들지 못하지만 시간이 지남에 따라 행동에 의해 의사-정서적 감정 공학에 의해 설계된 행동이 아닙니다. 그러나 AI 봇이 스크립팅 된 감정적 전달을 기반으로 디자인 된 인공 로봇이라는 것을 이해하지 않고 반응하는 인간 수신자의 대화를 지시하는 경우, 인간 행동의 예를 기반으로하는 부 자연스러운 반응을 예측하는 소프트웨어로 개념적으로 스크립팅 된 정서적 전달을 소프트웨어로 사용할 수 있습니다. 대화에 우리는 원인과 결과를 통해 진단받을 것입니다. 봇에 대한 인공 감정이 우리의 타당성을 구별한다면 감정적 인 경험이되는 봇이되는 AI가되어야하는 합리적인 경험이 아닙니다. 대신 봇이 감정적 인 소프트웨어 역학으로 개념적으로 설계된 인공 지능 경험에 반응하도록하는 프로그램 소프트웨어 특성을 바탕으로 어떤 결과를 얻게되는지 알아볼 것입니다.