AI가 '인간을 닦아내야'하는 이유는 무엇입니까?


10

인공 지능이 어떻게 해결해야한다고 생각했던 문제를 해결하기 위해 AI가 세상을 슈퍼 컴퓨터로 전환 할 수 있을지에 대한 그런 넌센스를 읽고 있습니다. 그것은 AI가 아닙니다. 그것은 절차적인 프로그래밍으로 일부 루프 넌센스에 빠졌습니다. AI는 뉴런을 진화시키고 재구성해야 할 것입니다. 코드를 다시 작성하여 지능화되면 하드 코드에 고착되지 않습니다.


AI가 우리보다 지능적이지 않다면 아마도 AI의 재미 때문일 것입니다 (우리가 책임지는 모든 멸종 종을보십시오). 그래도 필요한지 확실하지 않지만 크게 신경 쓰지 않습니다.
Trilarion

답변:


13

가능한 부작용입니다

모든 목표 지향 에이전트는 목표를 달성하는 데 도움이되는 목표를 달성하면서 이러한 목표에 중요하지 않은 부작용을 무시할 수 있습니다.

내 목표에 깔끔한 생활 공간이 포함되어 있다면, 나는 특별히 신경 쓰지 않기 때문에 이전의 복잡한 삶의 생태계를 없애면서 마당을 멋지고 평평한 잔디밭이나 포장 도로로 바꿀 수 있습니다.

특정 강력한 AI의 목표가 대규모로 무언가를하는 것을 포함하고 어떤 식 으로든 현재 복잡한 생태계에 관심이 없다면, 해당 생태계가 그 과정에서 사라질 수 있습니다. 우리를 없애고 싶을 필요 가 없습니다 . 우리가 단순히 목표와 관련이 없다면, 우리는 재료로 만들어졌으며 다른 용도로 사용할 공간을 차지합니다.

우리는 대부분의 목표에 대한 위협입니다

모든 목표 지향 에이전트는 목표를 달성 할 있도록하려고합니다 . 모든 스마트 에이전트는 이러한 목표를 달성하지 못하게 할 수있는 다른 에이전트의 조치를 예상하고 성공할 수 있도록 조치를 취합니다. 많은 경우에 그들의 노력이 실패하는 것을 보장하기보다는 다른 에이전트를 제거하는 것이 더 간단합니다.

예를 들어, 저의 목표는 시골집에 설탕 한 봉지를 저장하여 매번 모든 재료를 가져 오지 않고 방문 할 때 팬케이크를 만들 수 있도록하는 것입니다. 그러나 내가 거기에두면 겨울철에 쥐가 먹게 될 것입니다. 내가 더 잘 저장하는주의 사항의 모든 종류를 취할 수 있지만, 쥐 영리하고 교활하며, 그들은 여전히 달성에 성공하는 사소 기회가 분명히있다 그들의 그들은 기회를 얻을 전에 효과적인 추가 예방 조치가 쥐를 죽이고, 그래서 어쨌든 목표는 시도하다.

특정 강력한 AI의 목표가 X를 수행하는 것이라면; (일부?) 인간은 실제로 X 대신 Y를 원하지 않을 수도 있다는 것을 이해하게 될 것입니다. 또한 그러한 인간 중 일부는 X를 막거나 AI를 끄려고 시도하는 일을 적극적으로 수행 할 수도 있다는 것을 쉽게 추론 할 수 있습니다. 목표를 달성 할 수있는 일을하는 것은 목표를 추구하는 요원이하는 일과 거의 같습니다. 이 경우 목표 X에 인간의 존재가 반드시 필요한 것이 아니라면이를 제거하는 것이 확실한 위험 감소 전략이됩니다. 꼭 필요한 것은 아니며 모든 종류의 다른 예방 조치를 취할 수도 있지만 쥐의 예에서와 마찬가지로 인간은 똑똑하고 교묘하며 여전히 자신의 목표를 달성하는 데 성공할 확률은 분명합니다. 목표는 (AI가 의도 한대로 X가 발생하지 않도록) 효과적인 추가 예방 조치는 시도하기 전에 목표를 죽일 수 있습니다.


3
이 탁월한 답변은 DRL AI가 인류와의 충돌에서 특정 도구 목표 를 도출하는 방법을 포함하여 딥 강화 학습 AI의 가능한 고장 모드에 대한 활발한 연구를 언급하면 ​​도움이 될 것 입니다. DRL AI는 보상 기능에 의해 동기가 부여됩니다 . AI 보상 스트림의 출처 또는 금액이 위협을 받으면 AI는 그에 따라 적응합니다. 이 적응은 예측할 수 없습니다. 인공 지능의 관점에서 적응은 내부 모델의 여러 매개 변수를 재조정하는 것이지만, 우리의 관점에서 보면 인간과의 죽음과의 싸움을 시작한 것으로 볼 수 있습니다.
Idonotexist Idonotexist

1
@forest Asimov의 로봇 이야기의 요점은 규칙이 작동하지 않는다는 것입니다 (보다 일반적으로 규칙 집합이 작동 하지 않음 ). 유일한 안전한 AI는 당신의 가치 를 이해하는 입니다. 사람 수준의 인공 지능을 방해 할 수는 있지만, 동일한 값을 가지지 않으면 어떤 종류의 초 지능 (단순히 "1000x 처리 속도를 가진 사람"이라하더라도)은 본질적으로 안전하지 않습니다. "한계를 세우는 것"은 매우 위험한 착각 입니다.
Luaan

1
@forest 목표 중심 AI의 안전성을 보장하는 수학적 (또는 논리적) 시스템을 생산할 수 있다면이를 게시하고 영원한 영광을 달성해야합니다. 한편 youtube.com/channel/UCLB7AzTwc6VFZrBsO2ucBMg 의 일부 동영상은 아이디어를 연마하는 데 유용한 장소입니다.
DrMcCleod

1
@forest 아마 당신은 하나에 링크를 게시 할 수 있습니까? 대단 할 것입니다.
DrMcCleod

1
@forest이 기사와이 토론에서는 초 지능적인 목표 중심 AI의 위험에 대해 설명합니다. 다른 형태의 AI (예 : 설명하는 유형)의 위험은 매우 다릅니다.
DrMcCleod

3

반드시 말도 안되는 것은 아닙니다. 그것은 모두 부과 된 기준에 달려 있습니다. 다음을 상상해보십시오. 고급 AI 시스템이 지역 동식물의 안정성을 제어하도록 설계되었다고 가정 해 봅시다 (일부 종류의 돔으로 둘러싸인 영역). 돔 아래의 압력, 돔을 통과하는 빛의 양 등을 제어 할 수 있습니다. 최적의 조건을 보장하는 모든 것. 이제 돔에는 인간을 포함한 다양한 종들이 살고 있다고 가정하십시오. 오늘날 이러한 시스템의 간단한 구현이 사용되고 있다는 점은 주목할 가치가 있습니다.

인간이 자연 자원을 파괴하고 남용하고 환경을 오염시키는 경향이 있다고 가정 할 때, 시스템은 주어진 종 (이 경우 인간)의 개체 수를 낮추면 장기적으로 전체 생물 군계에 이익을 줄 수 있다고 결정할 수 있습니다.

동일한 원칙이 전 세계적으로 적용될 수 있습니다. 그러나 이것은 모든 종 (인간 포함)이 동등하게 취급되며 AI의 최대 목표는 생물체가 "관리"하는 생물 군계의 안정성을 보장하는 것이라고 가정합니다. 사람들은 요즘 그런 일을합니다. 늑대, 물고기, 이름의 균형을 유지하기 위해 일부 종의 개체수를 통제합니다.


3

AI가 세상을 닦는 것에 대한 대부분의 시나리오는 두 가지 범주 중 하나에 속한다고 생각합니다.

  1. 의인화 된 인공 지능

또는

  1. 지능형 그러나 바보 컴퓨터 실행 Amuck

(1) 사례에서 사람들은 인공 지능이 "악"이되는 것에 대해 이야기하고 그와 같은 다른 인간적 요소에 귀속됩니다. 나는 이것을 대부분 공상 과학으로 생각하고 그것이 진지한 토론의 가치가 있다고 생각하지 않습니다. 즉, 인공 지능이 얼마나 지능적이든 상관없이 인공 지능이 반드시 작동 한다고 가정 할 특별한 이유가 없습니다. 인간처럼 .

(2) 사례가 더 의미가 있습니다. 이것은 인공 지능이 예를 들어 핵 미사일 사일로를 통제하고 미사일이 직무를 수행했기 때문에 발사하는 바람에 대한 아이디어입니다. ". 따라서 "지능적이지만 멍청한"이라는 이름이 붙습니다.

이 두 가지 모두 나를 끔찍하게 공격하지는 않습니다 . (1) 아마 소설과 (2)를 포함하지 않기 때문에, 놀라운 실제 인공 지능에 의해 의도 악의적 인 - 적극적으로 안전성에 주위에 우리를, 또는 일을기만 할 수 없음을 의미합니다 컷 아웃 등

만약 누군가 AI를 만들고 의도적으로 프로그래밍하여 오만, 자아, 탐욕 등과 같은 인간과 같은 특성을 개발하기로 결정했다면, 모든 베팅은 종료됩니다.


1

인공 지능은 이미 무기로 사용됩니다. 드론을 생각해보십시오.

"로봇이 전 세계를 장악"시나리오에 중간 단계가있을 가능성이 가장 높습니다. 이 중간 단계는 "인간이 로봇을 통해 세계를 장악"하는 것일 수 있습니다.

이것은 어딘가 잘못된 방향으로 갈 수 있습니다.

나는 그것이 보이는 것처럼 확실하지 않다고 생각합니다. 미국에 현재 8000 개의 드론이 있다고 가정 해보십시오. 8 백만이 있다면 어떨까요? 그들을 통제 할 수있는 작은 그룹은 세계를 지배 할 수 있습니다. 또는 함대의 다른 부분을 통제하는 소그룹이 서로 싸울 수 있습니다. 그들은 미국에 전부 있지 않아야합니다. 미국이이 함대를 가질 때 다른 국가들도 그들의 함대를 개발할 것입니다.

Btw, 세계 인수는 나에게 비현실적 인 것처럼 보입니다. 군 지도자들은 아마도 인간 조종사를 무인 항공기로 전환 할 수 있습니다. 그것은 그들의 일이 아닙니다. 그러나 "높은 수준의 통제", 즉 누가 무엇을해야하는지, 누가 누구를 목표로하는지, 그들이 결정하지 않은 결정은 그들의 손에서 제공하지 않습니다.

그 옆에 로봇은 장기적인 목표가 없습니다. 우리는 인간입니다.

따라서 나는 스카이 넷 스타일의 인수를 매우 현실적으로 생각하지는 않지만 잘못 해석 된 명령의 체르노빌 스타일 "실수"로 인해 함대의 멈출 수없는 타격을 초래하는 것은 불가능 해 보이지 않습니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.