인간과 같은 감정을 경험하는 AI를 개발함으로써 어떤 목적을 달성 할 수 있습니까?


19

A의 최근 월스트리트 저널 기사 , 얀 LeCunn는 다음 문을합니다 :

인간 차원의 인공 지능을 달성하기위한 다음 단계는 지능적이지만 자율적 인 기계를 만드는 것입니다. 자동차의 AI 시스템은 안전하게 집으로 돌아갈 수 있지만 일단 들어가면 다른 목적지를 선택하지 않습니다. 여기에서 감정과 도덕적 가치와 함께 기본 추진력을 추가 할 것입니다. 우리가 뇌뿐만 아니라 배우는 기계를 만들면 인간과 같은 특성과 결함을 물려받는 기계를 쉽게 상상할 수 있습니다.

개인적으로, 나는 인공 지능에 대한 감정에 대해 말하는 것이 어리석은 입장을 취했습니다 . 감정을 경험하는 AI를 만들 이유 가 없기 때문 입니다. 분명히 Yann은 동의하지 않습니다. 문제는 이것으로 어떤 목적을 달성 할 것인가입니다. AI 유용한 도구로 사용 되려면 감정이 필요 합니까 ?


1
의 가능한 중복 왜겠습니까 누군가의 희망은 정서적 desicion 결정 인공 지능 내에서 시뮬레이션? 받아 들여진 대답 ( "인간 프로그래머가 AI 프로그램을 유지하는 것이 더 쉬울 것입니다.")은 흥미 롭거나 훌륭하지는 않지만 적어도 반 감각적이고 합리적입니다.
Left SE On 10_6_19

대안적인 가능성도 있습니다 : 인간과 같은 감정을 경험할 수있는 인공 지능을 개발 하고 싶지 는 않을 것입니다. (예 : 딥 러닝) 인간과 같은 감정을 경험하는 AI를 실수로 개발합니다. 우리가 원하는 것은 아닙니다. 어쨌든 그들이 올 수도 있습니다. 인공 강화 학습 제는 도덕적으로 중요합니까? 이 가능성에 대해 설명합니다.
Left SE On 10_6_19

답변:


11

이 질문에 대한 답은이 보드의 많은 사람들과 달리 결정적이라고 생각합니다. 아닙니다. 우리가 이미 가지고있는 수많은 인공 지능에 의해 알 수 있듯이, 인공 지능이 유용한 감정을 가질 필요 는 없습니다 .

그러나이 문제를 더 다루기 위해 우리는 실제로 AI의 감정을 줄 수 없습니다 . 우리가 얻을 수있는 가장 가까운 것은 '이 인공 지능이 인간이 그랬다면 인간이하는 것처럼 행동 할 수 있을까 insert emotion?'일 것입니다. 나는 어떤 의미에서 추측 되는 감정을 가진, 그러나 그것은 완전히 다른 토론입니다.

그리고 끝까지? 떠오르는 유일한 이유는 비디오 게임이나 기타 엔터테인먼트 목적을 위해보다 생생한 동반자 또는 상호 작용을 만드는 것입니다. 공정한 목표
이지만 필요한 것은 아닙니다. 일부 건물 로비에서 인공 지능이 장착 된 인사 로봇을 고려하더라도, 우리는 아마도 그것이 코디 얼 한 행동을 원할 것입니다.

Yann은 초 고급 인공 지능이 인간과 같은 특성 결함으로 이어질 것이라고 말합니다 . 나는 그것이 인공 지능에보다 인간적인 특성을 부여 하거나 다른 말로 결함을 주는 것과 같다고 생각합니다 . 사람들은 슬프거나 화 났을 때 비이성적으로 행동하는 경향이 있으며, 대부분 합리적 AI 만 원합니다.
그들이 말하는 것처럼 오류는 인간이다.

AI와 학습 알고리즘의 목적은 사람처럼 행동하거나 생각하는 시스템을 만드는 것이지만 더 좋습니다. 가능한 한 엉망으로 적응하거나 진화 할 수있는 시스템. 감동적인 AI는 사용하지만 유용한 시스템의 전제 조건은 아닙니다.


5

나는 근본적인 질문이 있다고 생각합니다. 왜 AI를 구축하려고 시도합니까? 그 목표가 분명하다면 AI에 감정적 몫이 있는지의 여부를 명확하게 제공 할 것입니다. 치료 적 이유로 개발 된 "Paro"와 같은 일부 시도는 인간과 같은 감정을 나타내야합니다. "감정 표시"와 "감정"감정은 완전히 다른 것입니다.

당신은 동정심, 애정, 교제 또는 기타를 표현하기 위해 음성 톤이나 얼굴 엇갈림을 조절하기 위해 paro와 같은 것을 프로그래밍 할 수 있습니다. 그러나 그렇게하는 동안 paro는 소유자와 공감하지 않습니다. 감정의. 그것은 인간의 뇌에서 그 감정이 불러 일으키는 것에 더 가까운 어떤 것도 원격으로 "느낀다".

따라서이 차이는 정말 중요합니다. 무언가를 느끼려면 느낄 수있는 독립적 인 자율적 주제가 필요합니다. 외부 인간 에이전트가 느낌을 강요 할 수 없습니다.

그래서 그것이 어떤 목적으로 해결되는지에 대한 질문으로 돌아가십시오-실제로는 대답입니다-그것은 달려 있습니다. 우리가 실리콘 기반 AI로 달성 할 수있는 가장 큰 것은 감정의 물리적 표현의 영역으로 남아있을 것입니다.


나는 동의하는 경향이있다. 그리고 내 생각은 너무 제한적이지만, 내가 생각하는 AI의 응용 프로그램의 대부분은 AI가 감정을 갖는 데 도움이되지 않습니다. 글쎄, 난 적어도 여기에 앉아 생각합니다. 어쩌면 나는 되돌아보고 내가 틀렸다는 것을 깨달을 것이다.
mindcrime

인공 지능이 감정을 가져야 만한다는 것은 잘못된 생각입니다. AI는 기본적으로 일련의 도구이므로 응용 프로그램도 필요에 따라 결정되어야합니다. 일부 유스 케이스에는 감정적 측면이 필요할 수 있지만 일부는 그렇지 않을 수도 있습니다. 누가 알아!
Kingz

4

AI 에이전트가 유용하기 위해서는 감정이 필요하지 않다고 생각합니다. 그러나 그들은 또한 그들이 MUCH 요원과 함께 일하는 것을 더 즐겁게 만들 수 있다고 생각합니다. 당신이 이야기하고있는 봇이 당신의 감정을 읽고 건설적으로 반응 할 수 있다면, 그것과 상호 작용하는 경험이 훨씬 더 즐거울 것입니다.

청구서 또는 제품에 대한 불만이있는 휴먼 콜센터 담당자에게 오늘 연락하십시오. 갈등이 예상됩니다. 누군가가 당신이 말하거나 적대적으로 또는 어리석게 말한 것을 오해하기 때문에이 경험이 고통 스럽거나, 전투 적이거나 실망 스러울 것이라는 것을 알고 있기 때문에 전화하지 않기로 결정했을 수도 있습니다.

이제 당신이 만났던 가장 현명하고 가장 집중된 고객 지원 담당자 (Commander Data)에게 전화하는 것이 가능합니다. 대부분의 콜 담당자에 비해 크게 개선되었습니다. 콜 담당자 데이터가 기분을 예측하고 불만 사항에 적절하게 대응하여 감정 상태를 해소 할 수 있다면이 사람과 결혼하고 싶다고 상상해보십시오. 당신은 파란색 또는 지루하거나 기분이 좋은 뉴스를 공유하고 싶을 때마다 전화 담당자 데이터를 호출합니다. 이 사람은 하룻밤 사이에 가장 친한 친구가 될 것입니다.

이 시나리오가 유효하다고 확신합니다. "I Robot"의 Data 나 Sonny와 같은 캐릭터들에게는 놀라운 매력을 발견했습니다. 목소리가 매우 달콤 해 즉시 편안해졌습니다. 봇이 매우 똑똑하고 참을성 있고 지식이 풍부하고 이해력이 있다면 ... 정말로 감성 지능이 가득한 봇이 상호 작용하기에 상당히 즐거울 것이라고 생각합니다. 내가 아는 사람보다 훨씬 더 많은 보람이 있습니다. 그리고 나는 그것이 저만이 아니라고 생각합니다.

예, 감정과 정서적 인식을 사용하여 로봇의 성격을 조정하는 데 큰 가치가 있다고 생각합니다.


4

AI의 감정은 유용하지만 목표에 따라 필요하지는 않습니다 (대부분의 경우는 아닙니다).

특히, 감정 인식 / 분석 은 매우 잘 발달되어 있으며 자폐 아동을위한 로봇 교사 (발달 로봇 공학 참조)부터 도박 (포커), 개인 에이전트 및 정치 감정 / 거짓말 분석에 이르기까지 광범위한 응용 분야에서 매우 성공적으로 사용됩니다.

로봇에 대한 감정의 경험 인 정서적 인식 은 훨씬 덜 개발되었지만 매우 흥미로운 연구가 있습니다 ( 영향 , 로보틱스의 확률 론적 사랑회 및 기타 ... 참조). 실제로, 나는 우리가 사랑과 같은 감정 을 인간의 두뇌에서 이미 잘라낼 수있는 신호이기 때문에 왜 감정을 모델링 할 수 없는지 알 수 없습니다 (Brian D. Earp 논문 참조) . 어렵지만 불가능하지는 않으며, 부분적인 감정 인식을 재생하는 로봇이 여러 대 있습니다.

내가 주장하는 의견입니다 "단지 시뮬레이션하지만 느낄 수 로봇이"단지 의미의 문제입니다 하지 객관적인 용량 : 물고기가 수영과 같은 예를 들어, 잠수함 수영은 무엇입니까? 그러나 비행기는 날지 만 새처럼 비행하지는 않습니다. 결국, 기술적 의미는 결국 우리가 동일한 행동을 취할 때 정말로 중요합니까? Chappie 와 같은 로봇 이 만들어지면 단순한 온도 조절기와 같은 느낌이 들지 않는다고 말할 수 있습니까 ?

그러나 인공 지능에 감정적 인식을 사용하는 것은 무엇입니까? 이 질문은 여전히 ​​논쟁의 여지가 있지만, 나는 내 자신의 통찰력을 감히 제공 할 것입니다.

  1. 인간과 동물의 감정은 기억에 영향을 미치는 것으로 알려져 있습니다. 그것들은 이제 신경 과학에서 장기 기억의 추가 양식 또는 선호하는 경우 메타 데이터로 잘 알려져있다 : 기억이 어떻게 저장되는지, 어떻게 기억이 다른 기억과 연관되는지, 어떻게 검색되는지를 조절할 수있다. .

  2. 따라서 감정의 주요 역할은 추론 적 추론 / 검색에 도움이되도록 추억에 메타 정보를 추가하는 것입니다. 실제로, 우리의 기억은 엄청나고, 우리가 일생 동안 저장하는 많은 정보가 있으므로, 감정은 관련 기억을 더 빨리 검색 할 수 있도록 "라벨"로 사용될 수 있습니다.

  3. 비슷한 "라벨"은보다 쉽게 ​​서로 연관 될 수 있습니다 (무서운 사건에 대한 기억, 행복한 사건에 대한 기억 등). 따라서, 그들은 무서운 전략에서 알려진 전략 (일출!)을 신속하게 대응하고 적용함으로써 생존을 도울 수 있거나, 유익한 상황을 최대한 활용합니다 (행복한 사건, 최대한 많이 먹고, 나중에 생존하는 데 도움이 될 것입니다!). 실제로, 신경 과학 연구는 두려움을 유발하는 감각 자극에 대한 특정 경로가 있다는 것을 발견하여, 다른 모든 자극과 같이 일반적인 전체 체성 감각 회로를 통과하는 것보다 액추에이터에 더 빨리 도달합니다 (피할 수있게합니다). 이러한 종류의 연관 추론은 또한 다른 방법으로는 도달 할 수없는 해결책과 결론으로 ​​이어질 수 있습니다.

  4. 공감을 느끼면 로봇 / 인간 상호 작용을 완화 할 수 있습니다 (예 : 치명적인 사건의 피해자를 돕는 드론).

  5. 감정이있는 인공 지능의 가상 모델은 기본 매개 변수를 이해 및 / 또는 추론하기위한 계산 모델로 정서 장애의 신경 과학 및 의학 연구에 유용 할 수 있습니다 (이는 종종 알츠하이머 및 기타 신경 퇴행성 질환으로 수행됩니다. 정서적 장애가 DSM에 새로 도입되었으므로 정서적 장애에 대해 수행되었는지 확인하십시오).

그렇습니다. "차가운 AI"는 이미 유용하지만 감성 AI는 차가운 AI만으로는 탐색 할 수없는 새로운 영역에 적용 할 수 있습니다. 감정은 필수 요소이므로 뇌를 이해하는 데 도움이 될 것입니다.


2

AI 적용에 달려 있다고 생각합니다. 분명히 인간의 감독하에 특정 임무를 수행하는 것이 목적인 AI를 개발한다면 감정이 필요하지 않습니다. 그러나 AI의 목적이 자율적으로 과제를 수행하는 것이라면 감정이나 공감이 유용 할 수 있습니다. 예를 들어 의료 영역에서 작동하는 AI를 생각해보십시오. 여기서 AI가 환자를 더 편안하게 만들기 위해 일종의 공감을 갖는 것이 유리할 수 있습니다. 또는 다른 예로, 보모 역할을하는 로봇을 생각해보십시오. 감정과 공감이 유리하고 바람직하다는 것이 다시 분명하다. 인공 지능 보조 프로그램 (캐치 워드 스마트 홈)의 감정과 공감도 사람들을보다 편안하게 만드는 것이 바람직 할 수 있습니다.

반면에 AI가 단지 조립 라인에서 작업하고 있다면 감정과 공감이 필요하지 않습니다 (그와 반대로 이익이되지 않을 수도 있음).


2

강력한 AI

강력한 AI의 경우 짧은 대답은 도움이 무엇인지 모를 때 도움을 요청하는 것입니다.

AI의 기능에 따라 다릅니다. 하나의 쉬운 일을 완벽하고 전문적으로 해결해야한다면 확실한 감정은 그다지 유용하지 않을 것입니다. 그러나 무작위로 새로운 것을 배우기로되어 있다면, 처리 할 수없는 일이 생길 것입니다.

Lee Sedol vs AlphaGo match 4에서 컴퓨터에 이전에 감정이 없다고 말한 일부 전문가는 AlphaGo가 감정이 있고 인간보다 강하다고 말합니다. 이 경우 AlphaGo의 미친 행동은 의도적으로 추가 된 "감정"항목이 아니라 알고리즘의 결함으로 인해 발생합니다. 그러나 그것은 당황한 것처럼 정확하게 행동합니다.

이것이 AI에 많이 발생한다면. 이것이 스스로를 알 수 있다면 일어날 수있는 이점이있을 수 있습니다. AlphaGo가 문제를 감지하고 전략을 변경할 수 있다면 더 좋거나 나빠질 수 있습니다. 다른 접근법에 대한 계산을 전혀 수행하지 않으면 더 나쁘게 재생되지 않을 것입니다. 그것이 더 나빠질 경우, 우리는 그것이 "감정"을 앓고 있다고 말할 수 있으며, 이것이 일부 사람들이 감정을 갖는 것이 인간의 결점 일 수 있다고 생각하는 이유 일 수 있습니다. 그러나 이것이 문제의 진정한 원인은 아닙니다. 진정한 원인은 승리를 보장 할 수있는 방법을 모르기 때문에 전략의 변화는 문제를 해결하려는 시도 일뿐입니다. 해설자는 더 나은 방법이 있다고 생각하지만 (이기는 보장하지는 않지만 더 많은 기회를 가졌다) 알고리즘은 ' 이 상황에서 찾을 수 없습니다. 인간의 경우에도 감정과 관련된 모든 것에 대한 해결책은 감정을 제거 할 가능성은 없지만 침착하게 행동 할 수있는 상황을 충분히 이해하도록하는 훈련입니다.

그런 다음 누군가가 이것이 일종의 감정인지 아닌지에 대해 논쟁해야합니다. 우리는 보통 작은 곤충들이 인간과 같은 감정을 가지고 있다고 말하지 않습니다. 왜냐하면 우리는 그것들을 이해하지 못하고 그들을 돕기를 원하지 않기 때문입니다. 그러나 AlphaGo처럼 일부 상황이 절박한 상황에서 당황 할 수 있다는 것을 쉽게 알 수 있습니다. 나는 이러한 반응이 같은 논리에 기초하고 있다고 말하고, 적어도 인간과 같은 감정이 잠재적으로 유용 할 수있는 이유입니다. 그들은 인간을 도와달라고 의도하지 않았기 때문에 인간이 이해할 수있는 방식으로 표현되지 않았습니다.

그들이 자신의 행동을 이해하려고하거나 다른 사람에게 도움을 청하면, 사람과 똑같은 사람이 될 수 있습니다. 일부 애완 동물은 인간의 감정을 감지하고 이해할 수있는 감정을 어느 정도 표현할 수 있습니다. 목적은 인간과 교류하는 것입니다. 그들은 어느 시점에서 필요했기 때문에이 능력을 갖도록 진화했습니다. 완전한 AI가 필요할 것 같습니다. 또한 완전한 감정을 갖는 것의 반대는 미치게 될 수 있습니다.

하지만 누군가가 첫 세대에 대한 이해가 거의없이 사람을 모방하는 감정을 구현한다면 신뢰를 잃을 수있는 빠른 방법 일 것입니다.

약한 AI

그러나 누군가가 강한 AI를 원하기 전에 감정을 가질 목적이 있습니까? 나는 그들이 감정을 가져야 할 본질적인 이유가 없다고 말하고 싶습니다. 그러나 어쨌든 누군가는 모방 된 감정을 구현하기를 원할 것입니다. "우리"가 감정을 가질 필요가 있는지 여부는 말도 안됩니다.

사실 지능이없는 일부 프로그램조차도 사용자 인터페이스에 "감정적 인"요소가 포함되어 있습니다. 전문가가 아닌 것처럼 보일 수 있지만 모든 작업에 전문성이 필요한 것은 아니므로 완벽하게 수용 할 수 있습니다. 그들은 음악과 예술의 감정과 같습니다. 누군가 이런 식으로 약한 AI를 설계 할 것입니다. 그러나 그들은 실제로 AI의 감정이 아니라 제작자의 감정입니다. 감정 때문에 기분이 나빠진다면 개별 인공 지능을 그렇게 다르게 취급하지는 않지만이 모델이나 브랜드를 전체적으로 취급하십시오.

또는 누군가 롤 플레잉 게임과 같은 성격을 심을 수도 있습니다. 다시 말하지만, 그들이해야 할 이유는 없지만 롤 플레잉 게임이있을 때 분명히 시장이 있었기 때문에 누군가는 그것을 할 것입니다.

두 경우 모두 감정이 실제로 AI 자체에서 비롯된 것은 아닙니다. 그리고 인간은 인간과 똑같을 것이라고 기대하지 않지만 의도 한 바를 이해하려고하기 때문에 구현하기가 쉬울 것입니다. 이를 실현하는 감정을 받아들이는 것이 훨씬 쉬울 수 있습니다.

감정의 측면

여기에 독창적 인 연구를 게시하는 것에 대해 죄송합니다. 나는 2012 년에 감정 목록을 만들었고 감정의 4 가지 측면을 볼 수있었습니다. 그들이 모두 구현된다면, 그들은 인간과 정확히 같은 감정이라고 말하고 싶습니다. 그것들 중 일부만 구현된다면 실제처럼 보이지 않지만 완전히 잘못되었다는 의미는 아닙니다.

  • AI가 해결할 수없는 이유 또는 원래의 논리적 문제. AlphaGo는 이미 이유가 있지만 다른 것은 없습니다. 정확하게 정의해야한다면, 동일하게 중요한 여러 휴리스틱이 서로 동의하지 않는 상태라고 말하고 싶습니다.
    • 상황 또는 현재 접근 방식의 어느 부분이 제대로 작동하지 않는 것으로 간주되어 대체되어야합니다. 이것은 슬픔과 걱정, 열정과 관련이 있습니다.
    • 현재의 상태, 또는 주도적 인 느낌인지, 또는 상황이 잘못되면 그 신념이나 사실이 먼저 나빠지거나 모든 것이 나빠질 것으로 예상되는지의 여부. 이것은 슬픔 관련, 사랑 관련 및 자랑 관련을 구별합니다.
  • 계획 또는 요청. 나는 길 들여진 애완 동물이 이미 이것을 가지고 있다고 생각합니다. 그리고 나는 이것들이 너무 어렵지 않은 고정 패턴을 가지고 있다고 가정합니다. 예술조차도 쉽게 담을 수 있습니다. 이유와 달리 이러한 알고리즘은 알고리즘에 내재되어 있지 않을 수 있으며 여러 알고리즘이 함께 나타날 수 있습니다.
    • 감정에 의해 아무것도 바뀌지 않으면 누가 책임을 졌을까요? 이것은 호기심, 분노 및 슬픔을 구별합니다.
    • 감정에 의해 변화가 없다면 가정 된 계획은 무엇입니까? 이것은 실망, 슬픔 및 놀라움을 구별합니다.
  • 소스. 상황이 없다면, 심지어 인간조차도 누군가가 움직이거나 고마워하거나 울부 짖는 것에 대해 웃고 있다고 말할 수 없습니다. 대부분의 다른 경우에는이를 설명하는 단어조차 없습니다. AI가 이것을 특별하게 구별하거나 보여주지 않는다면 그렇게 큰 차이는 없습니다. 그들은 인간의 언어를 이해하는 법을 배울 수있는 시점에서 자동으로 (그리고 인간으로서 부정확하게) 배우게 될 것입니다.
  • 문제가 얼마나 긴급하거나 중요한지, 심지어 감정이 어느 정도인지를 측정합니다. AI에서는 구현할 수 없다고 말하고 싶습니다. 인간은 인간과 똑같더라도 존중할 필요가 없습니다. 그러나 인간은 인공 지능이 전혀 중요하지 않더라도 인공 지능을 이해하는 방법을 배우게 될 것입니다. 사실, 나는 매우 약한 감정 (일부는 너무 어리 석고 지루하다고 생각할 정도로 지루한 생각)이 이모티콘에 거의 독점적으로 존재한다고 생각합니다. 실제 또는 복잡한 장면에서 눈에.니다. 나는 이것이 AI의 초기에도 해당 될 수 있다고 생각했다. 최악의 경우, 이모티콘은 이러한 경우에 작동하기 때문에 처음에는 "감정"으로 알려져 있습니다.

따라서 강력한 AI가 가능 해지면 이들 중 어느 것도 도달 할 수 없지만 연결하는 데 많은 작업이 필요할 수 있습니다. 따라서 강력한 AI가 필요하다면 감정이있을 것입니다.


2

감정에 의해 그는 모든 종류의 감정을 AI에 추가한다는 의미는 아닙니다. 그는 중요한 결정을 내리는 데 도움이 될 것만을 의미했습니다. 이 사건을
잠깐 생각해보십시오. AI자가 운전 차량이 고속도로를 통과한다고 가정 해보십시오. 내부에 앉아있는 사람은 회사의 CEO이며 일정에 따라 뒤쳐져 있습니다. 그가 제 시간에 도착하지 않으면 수백만 달러의 손실이있을 것입니다. 자동차의 AI는 가능한 한 빨리 운전하고 목적지에 도착하라는 지시를 받았습니다. 그리고 이제 토끼 (또는 다른 동물)가 나옵니다. 이제 자동차가 비상 브레이크를 걸면 승객이 심각하게 다칠 수 있으며 CEO가 회의에 참석할 수 없으므로 수백만 명의 손실이 발생합니다.

이제 AI는 무엇을 할 것인가?
AI의 경우, 그들의 결정은유틸리티 기능. 토끼를 때리고 계속 진행하면 논리적으로 더 나은 옵션이 표시됩니다. 그러나 AI가 그 결정을 내려야 만합니다.

AI가 도덕에 기초한 의사 결정이 중요한 역할을하는 상황에 빠질 수있는 것과 같은 많은 질문이 있습니다.
위의 시나리오는 단지 예시적인 관점을위한 것입니다.


1

마음의 이론

인간으로 구성된 환경에서 강력한 일반 AI가 제대로 작동하기를 원한다면 인간의 실제 행동 방식과 일치하는 좋은 마음의 이론 을 갖는 것이 매우 유용 합니다. 마음의 이론에는 인간과 같은 감정이 포함되어야합니다. 그렇지 않으면이 환경의 현실과 일치하지 않을 것입니다.

우리에게 자주 사용되는 지름길은 "이 상황에서 어떻게해야합니까?"라고 명시 적으로 생각하는 것입니다. " 내가 방금 한 일을 하도록 동기를 부여한 사건 은 무엇입니까?" "이것이 나에게 일어난다면 어떻게 느끼 겠습니까?". 우리는 AI가 그러한 추론을 할 수 있기를 원하고, 실용적이고 유용하며, 미래의 더 효과적인 행동에 대한 더 나은 예측을 가능하게합니다.

인공 지능이 실제로 정확한 감정에 의해 주도되지 않는 것이 더 나을지라도 (아마도 그 방향의 어떤 것이 유용하지만 정확히 같은 것은 아닐 것입니다 ), " 내가 느끼는 것" 을 생각하는 대신 모든 것이 변화합니다 일반 인간이 느끼는 것을 가정 할 수 있어야한다. 이를 위해서는 사람의 감정을 정확하게 모델링 할 수있는 하위 시스템을 구현해야합니다.


1

꼼꼼한! 실제로 귀하의 질문에는 두 부분이 있습니다. 질문에 의미를 혼동하지 마십시오. 그렇지 않으면 응답하는 부분을 실제로 알 수 없습니다.

  1. "질적 경험"에 따라 AGI가 감정을 경험하게해야합니까? (사랑에 빠졌을 때 "마음이 불타고있다"고 느끼는 의미에서

왜 우리가 원하는지에 대한 명확한 목적이없는 것 같습니다. 가설 적으로 우리는 감정적으로 기능적으로 구별 할 수 없지만 AGI와 관련하여 질적 인 경험이없는 것을 가질 수 있습니다. 그러나 우리는 질적 인 경험의 기원에 관한 질문에 대답 할 수있는 과학적인 입장에 있지 않기 때문에이 질문에 대해서는 더 깊이 신경 쓰지 않을 것입니다.

  1. 외부 관찰자의 기능적 동등성에 따라 AGI에 감정을 부여해야합니까?

이모 예. 감정이 없어도 나쁜 AI를 상상할 수 있지만 AI가 인간의 가치와 감정과 통합 될 수 있기를 바랍니다. 그러므로 잘 정리 된 AGI가 인간과 잘 통합되어 있다면 감정과 비슷한 것을 가질 것이라고 가정하는 것이 당연해 보일 것입니다.

그러나 분명한 마음의 이론 없이는 "우리의 AGI가 감정을 가져야 하는가?"라고 묻는 것이 합리적이지 않습니다. 어쩌면 AGI가 필요로하는 생산적인인지 제를 만드는 우리의 감정에 중요한 무언가가있을 것입니다.

실제로, 감정은 종종인지의 간과되는 양상이다. 사람들은 감정이없는 스팍 같은 캐릭터가 인간 지능의 정점이라고 생각합니다. 그러나 감정은 실제로 의사 결정에서 결정적인 측면입니다 . "감정없는 지능"과 관련된 문제의 예는 이 기사 를 참조하십시오 .

후속 질문은 "AGI가 어떤 종류의 감정을 개발할 것인가?"일 것이지만, 우리는 그 대답에 아직 입장하지 않았습니다 (아직).


0

인간과 같은 감정을 경험하는 AI를 개발함으로써 어떤 목적을 달성 할 수 있습니까?

문제에 대한 해결책이 인간의 감정 상태와 공감할 수있는 능력을 필요로하는 인간 감정과 관련된 복잡한 문제는 인간 감정과 공감할 있는 대리인에 의해 가장 효율적으로 제공 될 것 입니다.

정치. 정부. 정책 및 계획. 사물이 인간 경험에 대한 친밀한 지식이 없다면, 우리는 인간 경험에서 겪는 모든 문제에 대한 확실한 답을 제공 할 수 없습니다.


정치와 정부의 주장은 훌륭한 예입니다. 그러나 내 관점은 AI가 감정을 이해하고 반드시 경험할 필요는 없다는 것입니다.
Seth Simba

0

인간의 감정은 인간의 가치와 사회와 협력하고 형성 할 수있는 능력과 복잡하게 연결되어 있습니다.

쉬운 예를 들기 위해 : 도움이 필요한 낯선 사람을 만나면 공감 을 느끼게 됩니다. 이것은 당신이 자신을 희생하여 그를 도와달라고 강요합니다. 다음에 그를 만나면 무언가가 필요하다고 가정 해 봅시다. 그가 당신을 도와주지 않는다고 가정하자, 당신은 분노를 느낄 것이다 . 이 감정은 당신을 위해 추가 비용으로 그를 처벌하도록 강요합니다. 그는 당신을 도와주지 않으면 수치심을 느낀다 . 이로 인해 실제로 분노를 피하고 초기 투자 가치를 창출 할 수 있습니다. 둘 다 이익이됩니다.

따라서이 세 가지 감정은 서로의 도움을 원합니다. 시작할 공감, 탈북자를 처벌하고 분노를 피하기 위해 수치심. 이것은 또한 정의의 개념으로 이어진다.

가치 정렬은 AGI의 큰 문제 중 하나이므로 인간과 같은 감정은 실제로 우리의 가치를 공유하고 사회에 완벽하게 통합되는 AI에 대한 좋은 접근 방식으로 저를 놀라게합니다.


괜찮아 요,하지만 당신이 아버지에 갈 경우 당신은 감정이 왜 그들이 유용하지 않은지를 논리적으로 설명하기위한 지름길임을 알 수 있습니다. 규칙은 감정과 생물학에서 파생 될 수 있습니다. 그리고 이러한 규칙은 감정과 생물학으로 압축되고 명확하지 않은 형태로 유지됩니다. 우리에게는 그것이 필요하지만, AI에게는 그렇지는 않지만, 디지털 형식의 구현 비용이 규칙 기반 구현보다 낮을 경우 AI 최적화로 작동 할 수 있지만. 규칙 문제는 우리 자신이 완전히 그들을 모르는, 오직 하나이지만, AI 작업은 더 좁은 후 우리의 많은 규칙이 필요하지 않을 수 있습니다
MolbOrg
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.