내 유인원이 생각한 몇 가지 문제가 있습니다.
1. 스마트! = 모든 지식
AI 자체 개선 폭발로 인해 똑똑하고 똑똑해졌습니다. 더 똑똑하다는 것이 더 많은 사실을 아는 것은 아닙니다. 나는 이것이 꽤 까다로운 논쟁이라고 생각하지만, 생각해 볼 가치가 있다고 생각합니다.
당신의 역사를 모르는 매우 똑똑한 의사는 더 나은 데이터를 가진 덜 지능적인 의사보다 여전히 더 나쁜 선택을 할 수 있습니다.
2. 그것은 모두 인간을위한 것인가? 모든 인간을위한 것인가?
높은 수준에 도달 한 ASI는 우리의 복지에 관심이 없었습니다.
통제 된 ASI는 여전히 소수의 이익을 위해 효과가있을 수 있습니다.이 중 소수만이 잘못된 목표를 결정하면 우리는 거꾸로 갈 수 있습니다.
3 가혹한 ASI
과학적 사고는 반드시 동정이나 공감으로 가득 찬 것은 아닙니다.
4. 똑똑하고 영리하지 않다
좋은 마음은 여전히 목표를 설정하고 목표를 달성하기위한 계획을 실행하는 데있어서 실수를 저지 릅니다.
Geat 인텔리전스는 시야가 부족하거나 사각 지대가 없음을 보장합니다.
5. 한계
존재 범위 (광속 유형 제한 속도)가있는 경우 AI도 이에 구속됩니다. 이것은 ASI조차도 얻을 수없는 것들이 있음을 의미 할 수 있습니다. 또한 우리의 마음에는 그 구조에 따라 한계가있을 수 있으므로 다음 AI에도 한계가있을 수 있습니다 .uppn이 향상 되더라도 '너무 어리석기 때문에 솔루션을 찾을 수없는 한계에 도달 할 수 있습니다.
6. 우리는 그것을 얻을 수 없습니다
세계의 특정 측면에 대한 ASI의 이해는 대부분의 인간에게 의사 소통이되지 않을 수 있습니다. 우리는 그것을 얻지 못할 것입니다 (우리가 모든 것을 이해할 수 있다고하더라도 그것을 이해한다는 의미는 아닙니다).
7. 그것을 사용하는 방법?
우리는 스스로를 파괴하고 인공 지능이 우리를 도와주는 기술로 파괴 할 수 있습니다. 폭탄 일 필요는 없습니다. 지리 공학이나 마약을 할 수 있습니다.
이것은 ASI가 이미 강력하지만 부정적인 결과를 예상하기에 충분히 강하지 않을 때 특히 강합니다 (또는 어쨌든 무시할 것입니다).