강력한 AI
강력한 AI의 경우 짧은 대답은 도움이 무엇인지 모를 때 도움을 요청하는 것입니다.
AI의 기능에 따라 다릅니다. 하나의 쉬운 일을 완벽하고 전문적으로 해결해야한다면 확실한 감정은 그다지 유용하지 않을 것입니다. 그러나 무작위로 새로운 것을 배우기로되어 있다면, 처리 할 수없는 일이 생길 것입니다.
Lee Sedol vs AlphaGo match 4에서 컴퓨터에 이전에 감정이 없다고 말한 일부 전문가는 AlphaGo가 감정이 있고 인간보다 강하다고 말합니다. 이 경우 AlphaGo의 미친 행동은 의도적으로 추가 된 "감정"항목이 아니라 알고리즘의 결함으로 인해 발생합니다. 그러나 그것은 당황한 것처럼 정확하게 행동합니다.
이것이 AI에 많이 발생한다면. 이것이 스스로를 알 수 있다면 일어날 수있는 이점이있을 수 있습니다. AlphaGo가 문제를 감지하고 전략을 변경할 수 있다면 더 좋거나 나빠질 수 있습니다. 다른 접근법에 대한 계산을 전혀 수행하지 않으면 더 나쁘게 재생되지 않을 것입니다. 그것이 더 나빠질 경우, 우리는 그것이 "감정"을 앓고 있다고 말할 수 있으며, 이것이 일부 사람들이 감정을 갖는 것이 인간의 결점 일 수 있다고 생각하는 이유 일 수 있습니다. 그러나 이것이 문제의 진정한 원인은 아닙니다. 진정한 원인은 승리를 보장 할 수있는 방법을 모르기 때문에 전략의 변화는 문제를 해결하려는 시도 일뿐입니다. 해설자는 더 나은 방법이 있다고 생각하지만 (이기는 보장하지는 않지만 더 많은 기회를 가졌다) 알고리즘은 ' 이 상황에서 찾을 수 없습니다. 인간의 경우에도 감정과 관련된 모든 것에 대한 해결책은 감정을 제거 할 가능성은 없지만 침착하게 행동 할 수있는 상황을 충분히 이해하도록하는 훈련입니다.
그런 다음 누군가가 이것이 일종의 감정인지 아닌지에 대해 논쟁해야합니다. 우리는 보통 작은 곤충들이 인간과 같은 감정을 가지고 있다고 말하지 않습니다. 왜냐하면 우리는 그것들을 이해하지 못하고 그들을 돕기를 원하지 않기 때문입니다. 그러나 AlphaGo처럼 일부 상황이 절박한 상황에서 당황 할 수 있다는 것을 쉽게 알 수 있습니다. 나는 이러한 반응이 같은 논리에 기초하고 있다고 말하고, 적어도 인간과 같은 감정이 잠재적으로 유용 할 수있는 이유입니다. 그들은 인간을 도와달라고 의도하지 않았기 때문에 인간이 이해할 수있는 방식으로 표현되지 않았습니다.
그들이 자신의 행동을 이해하려고하거나 다른 사람에게 도움을 청하면, 사람과 똑같은 사람이 될 수 있습니다. 일부 애완 동물은 인간의 감정을 감지하고 이해할 수있는 감정을 어느 정도 표현할 수 있습니다. 목적은 인간과 교류하는 것입니다. 그들은 어느 시점에서 필요했기 때문에이 능력을 갖도록 진화했습니다. 완전한 AI가 필요할 것 같습니다. 또한 완전한 감정을 갖는 것의 반대는 미치게 될 수 있습니다.
하지만 누군가가 첫 세대에 대한 이해가 거의없이 사람을 모방하는 감정을 구현한다면 신뢰를 잃을 수있는 빠른 방법 일 것입니다.
약한 AI
그러나 누군가가 강한 AI를 원하기 전에 감정을 가질 목적이 있습니까? 나는 그들이 감정을 가져야 할 본질적인 이유가 없다고 말하고 싶습니다. 그러나 어쨌든 누군가는 모방 된 감정을 구현하기를 원할 것입니다. "우리"가 감정을 가질 필요가 있는지 여부는 말도 안됩니다.
사실 지능이없는 일부 프로그램조차도 사용자 인터페이스에 "감정적 인"요소가 포함되어 있습니다. 전문가가 아닌 것처럼 보일 수 있지만 모든 작업에 전문성이 필요한 것은 아니므로 완벽하게 수용 할 수 있습니다. 그들은 음악과 예술의 감정과 같습니다. 누군가 이런 식으로 약한 AI를 설계 할 것입니다. 그러나 그들은 실제로 AI의 감정이 아니라 제작자의 감정입니다. 감정 때문에 기분이 나빠진다면 개별 인공 지능을 그렇게 다르게 취급하지는 않지만이 모델이나 브랜드를 전체적으로 취급하십시오.
또는 누군가 롤 플레잉 게임과 같은 성격을 심을 수도 있습니다. 다시 말하지만, 그들이해야 할 이유는 없지만 롤 플레잉 게임이있을 때 분명히 시장이 있었기 때문에 누군가는 그것을 할 것입니다.
두 경우 모두 감정이 실제로 AI 자체에서 비롯된 것은 아닙니다. 그리고 인간은 인간과 똑같을 것이라고 기대하지 않지만 의도 한 바를 이해하려고하기 때문에 구현하기가 쉬울 것입니다. 이를 실현하는 감정을 받아들이는 것이 훨씬 쉬울 수 있습니다.
감정의 측면
여기에 독창적 인 연구를 게시하는 것에 대해 죄송합니다. 나는 2012 년에 감정 목록을 만들었고 감정의 4 가지 측면을 볼 수있었습니다. 그들이 모두 구현된다면, 그들은 인간과 정확히 같은 감정이라고 말하고 싶습니다. 그것들 중 일부만 구현된다면 실제처럼 보이지 않지만 완전히 잘못되었다는 의미는 아닙니다.
- AI가 해결할 수없는 이유 또는 원래의 논리적 문제. AlphaGo는 이미 이유가 있지만 다른 것은 없습니다. 정확하게 정의해야한다면, 동일하게 중요한 여러 휴리스틱이 서로 동의하지 않는 상태라고 말하고 싶습니다.
- 상황 또는 현재 접근 방식의 어느 부분이 제대로 작동하지 않는 것으로 간주되어 대체되어야합니다. 이것은 슬픔과 걱정, 열정과 관련이 있습니다.
- 현재의 상태, 또는 주도적 인 느낌인지, 또는 상황이 잘못되면 그 신념이나 사실이 먼저 나빠지거나 모든 것이 나빠질 것으로 예상되는지의 여부. 이것은 슬픔 관련, 사랑 관련 및 자랑 관련을 구별합니다.
- 계획 또는 요청. 나는 길 들여진 애완 동물이 이미 이것을 가지고 있다고 생각합니다. 그리고 나는 이것들이 너무 어렵지 않은 고정 패턴을 가지고 있다고 가정합니다. 예술조차도 쉽게 담을 수 있습니다. 이유와 달리 이러한 알고리즘은 알고리즘에 내재되어 있지 않을 수 있으며 여러 알고리즘이 함께 나타날 수 있습니다.
- 감정에 의해 아무것도 바뀌지 않으면 누가 책임을 졌을까요? 이것은 호기심, 분노 및 슬픔을 구별합니다.
- 감정에 의해 변화가 없다면 가정 된 계획은 무엇입니까? 이것은 실망, 슬픔 및 놀라움을 구별합니다.
- 소스. 상황이 없다면, 심지어 인간조차도 누군가가 움직이거나 고마워하거나 울부 짖는 것에 대해 웃고 있다고 말할 수 없습니다. 대부분의 다른 경우에는이를 설명하는 단어조차 없습니다. AI가 이것을 특별하게 구별하거나 보여주지 않는다면 그렇게 큰 차이는 없습니다. 그들은 인간의 언어를 이해하는 법을 배울 수있는 시점에서 자동으로 (그리고 인간으로서 부정확하게) 배우게 될 것입니다.
- 문제가 얼마나 긴급하거나 중요한지, 심지어 감정이 어느 정도인지를 측정합니다. AI에서는 구현할 수 없다고 말하고 싶습니다. 인간은 인간과 똑같더라도 존중할 필요가 없습니다. 그러나 인간은 인공 지능이 전혀 중요하지 않더라도 인공 지능을 이해하는 방법을 배우게 될 것입니다. 사실, 나는 매우 약한 감정 (일부는 너무 어리 석고 지루하다고 생각할 정도로 지루한 생각)이 이모티콘에 거의 독점적으로 존재한다고 생각합니다. 실제 또는 복잡한 장면에서 눈에.니다. 나는 이것이 AI의 초기에도 해당 될 수 있다고 생각했다. 최악의 경우, 이모티콘은 이러한 경우에 작동하기 때문에 처음에는 "감정"으로 알려져 있습니다.
따라서 강력한 AI가 가능 해지면 이들 중 어느 것도 도달 할 수 없지만 연결하는 데 많은 작업이 필요할 수 있습니다. 따라서 강력한 AI가 필요하다면 감정이있을 것입니다.