기술적 특이점의 개념은 무엇입니까?


32

기술 특이점에 대한 아이디어를 들었습니다. 그것이 무엇이며 인공 지능과 어떤 관련이 있습니까? 이것이 인공 지능 기계가 인간이 할 수있는 것 이상으로 성장하고 스스로 배우고 성장하는 지점으로 발전한 이론적 인 지점입니까? 이 시점에 도달하면 어떻게 알 수 있습니까?

답변:


20

기술적 특이점은 자기 개선하는 시간에 이론적 지점입니다 범용 인공 지능 '할 수있는 생물학적, 디자인, 이해하고있는 인간의 뇌의 범위, 사물의 인간을 이해할 수있는 순간의 외부 개념을 조작 할 수된다 티.

특이점에 대한 어리 석음은 특이점부터 역사가 효과적으로 예측할 수 없다는 사실에서 비롯됩니다. 과학 자체가 기계 트리거 사건을 설명 할 수 없게되면서 인류는 미래 사건을 예측하거나 현재 사건을 설명 할 수 없을 것입니다. 본질적으로, 기계는 우리가 개미를 생각하는 것과 같은 방식으로 우리를 생각할 것입니다. 따라서 특이점을지나 예측을 할 수 없습니다. 또한 논리적 결과로 특이점이 발생할 수있는 지점을 정의 할 수 없거나 발생시 인식 할 수도 없습니다.

그러나 특이점이 발생하기 위해서는 AGI가 개발되어야하며 이것이 가능한지 여부는 상당히 논쟁의 여지가 있습니다.지금. 또한 비트와 바이트에서 초 인간 지능을 생성하는 알고리즘을 설계해야합니다. 정의에 따르면, 인간 프로그래머는 뇌가 범위를 넘어 개념을 이해할 수 있어야하기 때문에 그러한 일을 할 수 없을 것입니다. 또한 지능적 폭발 (이론적으로 기술적 특이점을 형성하는 메커니즘)은 더 지능적으로 만들기위한 설계 문제의 어려움, 지능에 비례하여 더 커짐 및 어려움으로 인해 불가능할 것이라는 주장도있다. 디자인 자체는 언급 된 문제를 해결하는 데 필요한 지능을 능가 할 수 있습니다 ( 주석에서 라마의 신에 대한 마지막 포인트 크레딧 ).

또한 인간과 공상 과학적 이야기를 인계받는 기계와 관련된 이론이 있습니다. 그러나 Asimov의 법칙 을 적절히 준수 하면 일어날 가능성이 적습니다 . 비록 Asimov의 법칙이 충분하지 않더라도, 의도하지 않은 개인에 의한 AGI의 오용을 피하기 위해서는 일련의 제약이 여전히 필요하며, Asimov의 법칙은 우리에게 가장 가까운 법입니다.


또한 지능 폭발 (기술적으로 특이점을 형성하는 메커니즘)이 지능에 비례하여 더 지능적으로되기위한 설계 문제의 어려움과 지능의 어려움으로 인해 불가능할 것이라는 주장도있다. 설계 과제는 상기 설계 과제를 해결하는데 필요한 지능을 능가 할 수있다. <<보다 완벽하고 포괄적 인 답변을 위해 답변에 추가 할 수 있습니다.
라마의 신

1
Asimov의 로봇 공학 법칙은 심각하게 받아 들여지지 않았으며 실제로 잘못 될 수있는 여러 가지 방법을 보여주기 위해 만들어졌습니다. 의도와 목표) 그리고 이것은 이야기에 관한 것입니다. 참조 동영상을 .
라마의 신

@ godofllamas : 귀하의 제안에 감사드립니다. 아시모프의 법칙 인 AFAIK와 관련 하여 , 제 0 법칙 은 세 가지 최초의 법칙이 아시모프의 이야기에서 사용 된 많은 방식을 피하기 위해 정확하게 고안되었습니다. 어쨌든 AI는 오용과 추가 혼란을 피하기 위해 Asimov의 법칙 또는 기타 다른 방식으로 확실히 제한되어야합니다.
3442

인간이 할 수없는 것을 이해하는 것이 AI의 특이성 이론의 요구 사항은 아닙니다. 기계가 인간이 이해하는 것의 1 % 만 이해할 수 있고 매년 그 수준의 이해력을 두 배로 늘릴 수 있다면 특이점이 발생했을 것입니다. 기계가 질적으로 인간의 뇌를 초과하지 않더라도, 더 빠르고 안정적으로 처리 할 수 ​​있다면, 여전히 우위를 나타내고 지배력을 달성 할 수 있습니다.
FauChristian

3

"독점 성"의 개념은 기계가 인간을 능가하는 것입니다. Stephen Hawking의 의견에 따르면 이러한 상황은 불가피하지만 모든 AI 알고리즘은 사람이 프로그래밍해야하기 때문에 그 시점에 도달하기가 매우 어려울 것이라고 생각합니다.

슈퍼 스마트 AI가 인간과 경쟁하고 더 정교한 지능 존재를 만들어내는 인공 지능에 대한 인류의 통제력을 상실한 시점을 알 수 있을지 모르지만 현재는 공상 과학 소설 (일명 Terminator의 Skynet ) 과 비슷 합니다.

위험은 사람들을 죽이는 것 (자체 비행 드론 이 스스로 결정을 내림), 국가 또는 지구 전체를 파괴하는 것 (AI는 핵무기와 연결된 AI (일명 WarGames 영화))을 포함 할 수 있지만, 기계는 인간보다 더 똑똑 할 것입니다.


`모든 인공 지능 알고리즘은 인간이 프로그래밍해야합니다. '-> 인공 지능의 기본 개념은 기계가 자체 프로그래밍을 개선하여 학습 할 수 있다는 것입니다. 이론적으로 이것은 기계가 결국 우리보다 더 똑똑해지고 인간이 작성한 어떤 알고리즘보다 우수한 알고리즘을 만들 수있게하여 AI가 더 나아질 수 있습니다.
John Slegers

"모든 AI 알고리즘은 인간에 의해 프로그래밍되어야하므로 생성자보다 항상 더 제한적일 것입니다."-이것은 흥미로운 논거입니다. 다음은 반대 논증입니다. -1) AI의 지능을 코딩 할 필요는 없습니다. 관찰, 추론 및 이해하는 능력을 갖기 위해 AI를 코딩해야합니다. 그 후, 아마도 더 많은 처리 능력과 더 빠른 처리 능력을 추가하면 AI가 우리보다 더 잘 배우고 파악할 수있게 될 것입니다. 인간.
akm

알고리즘은 사람이 프로그래밍 할 필요가 없습니다. 알고리즘을 변형, 변형, 최적화, 평가 및 선택하는 것이 가능하고 실제로는 일반적입니다. 기계는 이미 몇 가지 방법으로 사람들을 능가합니다.
FauChristian

3

AI와 관련하여 특이점은 이론적으로 다음과 같은 기준을 가진 지능형 시스템이 배포됩니다.

  1. 자체 지능 범위를 향상 시키거나 이와 같이 향상된 범위를 가진 다른 시스템을 배치 할 수 있음
  2. 그렇게하려는 의지 또는 강요
  3. 인간 감독이 없을 때 그렇게 할 수 있음
  4. 개선 된 버전은 (1)부터 (3)까지 재귀 적으로 기준을 유지합니다

유도함으로써 이론은 잠재적 인 두뇌 진화 속도를 크게 초과 할 수있는 잠재적 지능 증가율로 일련의 사건이 발생 될 것으로 예측한다.

이 자기 개선 적 실체 또는 생식 된 실체의 개체가 인간의 생명과 자유를 보존하는 것이 얼마나 의무적 일지는 미정이다. 이러한 의무가 취소 할 수없는 소프트웨어 계약의 일부가 될 수 있다는 생각은 위의 기준 (1)에서 (4)까지 연계 된 기능의 특성을 고려하면 순진합니다. 다른 강력한 기술과 마찬가지로 위험도 잠재적 이익만큼이나 광범위합니다.

인류에 대한 위험에는 지능이 필요하지 않습니다. 특이점이라는 용어를 사용하는 데 다른 맥락이 있지만,이 AI 포럼의 범위를 벗어나지 만 명확성을 위해 간단히 언급 할 가치가 있습니다. 유전 공학, 원자력 공학, 세계화 및 국제 경제를 기반으로하는 지구상에서 발생하는 것보다 수천 배 빠르게 소비되는 유한 에너지 원에 기초를 두는 것 — 위험과 이익을 가져다주는 고위험 기술 및 대량 추세의 다른 예입니다. 인류에게.

인공 지능으로 돌아와서 특이성 이론의 주요 경고는 확률을 포함하지 않는 것입니다. 위의 (1)에서 (4)까지의 기준을 따르는 실체를 개발하는 것이 가능할 수도 있지만, 지구에서 사용되는 모든 현재 언어가 죽은 후에도 첫 번째 사건이 발생할 정도로 충분히 불가능할 수 있습니다.

확률 분포의 다른 극단적 인 경우, 첫 번째 사건이 이미 발생했을 가능성이 0이 아닌 확률이 있음을 쉽게 주장 할 수 있습니다.

이러한 선을 따라 인터넷에 이미 존재하는 현명한 존재라면 낮은 인간에게 자신을 드러내는 것이 최선의 이익이 될 가능성은 얼마나됩니까? 지나가는 구더기를 소개합니까?


설명 주셔서 감사합니다. 나는 개념적으로 이러한 조건들이 실제로 어떻게 보일지, 특히 1) 이해하지 못한다는 것을 인정해야한다. 아마도 알고리즘은 다소 정의 된 입력 및 출력 세트로 구현됩니다. 1)에 해당하는 세트를 변경한다고 가정해야합니까? 인간 개발자가 왜 AGI 수준보다 훨씬 오래 전에 통제 할 수없는 방식으로 허용할까요? 그리고 ... 그게 순진한 질문인가요? :)
Cpt Reynolds

0

좁게 본 "단일성"은 경제 성장이 너무 빨라서 그 시점 이후의 미래에 대한 유용한 예측을 할 수없는 시점을 나타냅니다.

그것은 종종 "지능 폭발"과 상호 교환 적으로 사용되는데, 그것은 우리가 소위 Strong AI를 얻었을 때 발생합니다. 이것은 강력한 AI로, 스스로 이해하고 향상시킬 수있는 지능입니다. 지능 폭발이 즉각적으로 경제 특이성을 초래할 것으로 예상하는 것이 합리적이지만, 그 반대가 반드시 사실은 아닙니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.