인공 지능이 어떻게 해결해야한다고 생각했던 문제를 해결하기 위해 AI가 세상을 슈퍼 컴퓨터로 전환 할 수 있을지에 대한 그런 넌센스를 읽고 있습니다. 그것은 AI가 아닙니다. 그것은 절차적인 프로그래밍으로 일부 루프 넌센스에 빠졌습니다. AI는 뉴런을 진화시키고 재구성해야 할 것입니다. 코드를 다시 작성하여 지능화되면 하드 코드에 고착되지 않습니다.
인공 지능이 어떻게 해결해야한다고 생각했던 문제를 해결하기 위해 AI가 세상을 슈퍼 컴퓨터로 전환 할 수 있을지에 대한 그런 넌센스를 읽고 있습니다. 그것은 AI가 아닙니다. 그것은 절차적인 프로그래밍으로 일부 루프 넌센스에 빠졌습니다. AI는 뉴런을 진화시키고 재구성해야 할 것입니다. 코드를 다시 작성하여 지능화되면 하드 코드에 고착되지 않습니다.
답변:
모든 목표 지향 에이전트는 목표를 달성하는 데 도움이되는 목표를 달성하면서 이러한 목표에 중요하지 않은 부작용을 무시할 수 있습니다.
내 목표에 깔끔한 생활 공간이 포함되어 있다면, 나는 특별히 신경 쓰지 않기 때문에 이전의 복잡한 삶의 생태계를 없애면서 마당을 멋지고 평평한 잔디밭이나 포장 도로로 바꿀 수 있습니다.
특정 강력한 AI의 목표가 대규모로 무언가를하는 것을 포함하고 어떤 식 으로든 현재 복잡한 생태계에 관심이 없다면, 해당 생태계가 그 과정에서 사라질 수 있습니다. 우리를 없애고 싶을 필요 가 없습니다 . 우리가 단순히 목표와 관련이 없다면, 우리는 재료로 만들어졌으며 다른 용도로 사용할 공간을 차지합니다.
모든 목표 지향 에이전트는 목표를 달성 할 수 있도록하려고합니다 . 모든 스마트 에이전트는 이러한 목표를 달성하지 못하게 할 수있는 다른 에이전트의 조치를 예상하고 성공할 수 있도록 조치를 취합니다. 많은 경우에 그들의 노력이 실패하는 것을 보장하기보다는 다른 에이전트를 제거하는 것이 더 간단합니다.
예를 들어, 저의 목표는 시골집에 설탕 한 봉지를 저장하여 매번 모든 재료를 가져 오지 않고 방문 할 때 팬케이크를 만들 수 있도록하는 것입니다. 그러나 내가 거기에두면 겨울철에 쥐가 먹게 될 것입니다. 내가 더 잘 저장하는주의 사항의 모든 종류를 취할 수 있지만, 쥐 영리하고 교활하며, 그들은 여전히 달성에 성공하는 사소 기회가 분명히있다 그들의 그들은 기회를 얻을 전에 효과적인 추가 예방 조치가 쥐를 죽이고, 그래서 어쨌든 목표는 시도하다.
특정 강력한 AI의 목표가 X를 수행하는 것이라면; (일부?) 인간은 실제로 X 대신 Y를 원하지 않을 수도 있다는 것을 이해하게 될 것입니다. 또한 그러한 인간 중 일부는 X를 막거나 AI를 끄려고 시도하는 일을 적극적으로 수행 할 수도 있다는 것을 쉽게 추론 할 수 있습니다. 목표를 달성 할 수있는 일을하는 것은 목표를 추구하는 요원이하는 일과 거의 같습니다. 이 경우 목표 X에 인간의 존재가 반드시 필요한 것이 아니라면이를 제거하는 것이 확실한 위험 감소 전략이됩니다. 꼭 필요한 것은 아니며 모든 종류의 다른 예방 조치를 취할 수도 있지만 쥐의 예에서와 마찬가지로 인간은 똑똑하고 교묘하며 여전히 자신의 목표를 달성하는 데 성공할 확률은 분명합니다. 목표는 (AI가 의도 한대로 X가 발생하지 않도록) 효과적인 추가 예방 조치는 시도하기 전에 목표를 죽일 수 있습니다.
반드시 말도 안되는 것은 아닙니다. 그것은 모두 부과 된 기준에 달려 있습니다. 다음을 상상해보십시오. 고급 AI 시스템이 지역 동식물의 안정성을 제어하도록 설계되었다고 가정 해 봅시다 (일부 종류의 돔으로 둘러싸인 영역). 돔 아래의 압력, 돔을 통과하는 빛의 양 등을 제어 할 수 있습니다. 최적의 조건을 보장하는 모든 것. 이제 돔에는 인간을 포함한 다양한 종들이 살고 있다고 가정하십시오. 오늘날 이러한 시스템의 간단한 구현이 사용되고 있다는 점은 주목할 가치가 있습니다.
인간이 자연 자원을 파괴하고 남용하고 환경을 오염시키는 경향이 있다고 가정 할 때, 시스템은 주어진 종 (이 경우 인간)의 개체 수를 낮추면 장기적으로 전체 생물 군계에 이익을 줄 수 있다고 결정할 수 있습니다.
동일한 원칙이 전 세계적으로 적용될 수 있습니다. 그러나 이것은 모든 종 (인간 포함)이 동등하게 취급되며 AI의 최대 목표는 생물체가 "관리"하는 생물 군계의 안정성을 보장하는 것이라고 가정합니다. 사람들은 요즘 그런 일을합니다. 늑대, 물고기, 이름의 균형을 유지하기 위해 일부 종의 개체수를 통제합니다.
AI가 세상을 닦는 것에 대한 대부분의 시나리오는 두 가지 범주 중 하나에 속한다고 생각합니다.
또는
(1) 사례에서 사람들은 인공 지능이 "악"이되는 것에 대해 이야기하고 그와 같은 다른 인간적 요소에 귀속됩니다. 나는 이것을 대부분 공상 과학으로 생각하고 그것이 진지한 토론의 가치가 있다고 생각하지 않습니다. 즉, 인공 지능이 얼마나 지능적이든 상관없이 인공 지능이 반드시 작동 한다고 가정 할 특별한 이유가 없습니다. 인간처럼 .
(2) 사례가 더 의미가 있습니다. 이것은 인공 지능이 예를 들어 핵 미사일 사일로를 통제하고 미사일이 직무를 수행했기 때문에 발사하는 바람에 대한 아이디어입니다. ". 따라서 "지능적이지만 멍청한"이라는 이름이 붙습니다.
이 두 가지 모두 나를 끔찍하게 공격하지는 않습니다 . (1) 아마 소설과 (2)를 포함하지 않기 때문에, 놀라운 실제 인공 지능에 의해 의도 악의적 인 - 적극적으로 안전성에 주위에 우리를, 또는 일을기만 할 수 없음을 의미합니다 컷 아웃 등
만약 누군가 AI를 만들고 의도적으로 프로그래밍하여 오만, 자아, 탐욕 등과 같은 인간과 같은 특성을 개발하기로 결정했다면, 모든 베팅은 종료됩니다.
인공 지능은 이미 무기로 사용됩니다. 드론을 생각해보십시오.
"로봇이 전 세계를 장악"시나리오에 중간 단계가있을 가능성이 가장 높습니다. 이 중간 단계는 "인간이 로봇을 통해 세계를 장악"하는 것일 수 있습니다.
이것은 어딘가 잘못된 방향으로 갈 수 있습니다.
나는 그것이 보이는 것처럼 확실하지 않다고 생각합니다. 미국에 현재 8000 개의 드론이 있다고 가정 해보십시오. 8 백만이 있다면 어떨까요? 그들을 통제 할 수있는 작은 그룹은 세계를 지배 할 수 있습니다. 또는 함대의 다른 부분을 통제하는 소그룹이 서로 싸울 수 있습니다. 그들은 미국에 전부 있지 않아야합니다. 미국이이 함대를 가질 때 다른 국가들도 그들의 함대를 개발할 것입니다.
Btw, 세계 인수는 나에게 비현실적 인 것처럼 보입니다. 군 지도자들은 아마도 인간 조종사를 무인 항공기로 전환 할 수 있습니다. 그것은 그들의 일이 아닙니다. 그러나 "높은 수준의 통제", 즉 누가 무엇을해야하는지, 누가 누구를 목표로하는지, 그들이 결정하지 않은 결정은 그들의 손에서 제공하지 않습니다.
그 옆에 로봇은 장기적인 목표가 없습니다. 우리는 인간입니다.
따라서 나는 스카이 넷 스타일의 인수를 매우 현실적으로 생각하지는 않지만 잘못 해석 된 명령의 체르노빌 스타일 "실수"로 인해 함대의 멈출 수없는 타격을 초래하는 것은 불가능 해 보이지 않습니다.