우리는 종종 인공 지능이 인간에게 해를 끼치거나 심지어 죽일 수도 있다는 말을 듣고 위험 할 수 있습니다.
인공 지능이 어떻게 우리를 해칠 수 있습니까?
우리는 종종 인공 지능이 인간에게 해를 끼치거나 심지어 죽일 수도 있다는 말을 듣고 위험 할 수 있습니다.
인공 지능이 어떻게 우리를 해칠 수 있습니까?
답변:
많은있다 유효 사람들이 우려하고 있습니다 (또는 더 나은 이유 에 대해 걱정 ) AI를, 모든 로봇과 종말 시나리오에 포함되지 않음.
이러한 문제를 더 잘 설명하기 위해 세 가지 범주로 나눕니다.
이것은 당신의 질문이 말하는 AI의 유형입니다. 인류를 파괴 / 노예화하는 초 지능형 인공 지능 AI. 이것은 대부분 공상 과학 소설에 의해 우리에게 가져옵니다. 할리우드의 대표적인 예로 "터미네이터" , "매트릭스" , "Age of Ultron"이 있습니다. 가장 영향력있는 소설은 Isaac Asimov에 의해 쓰여졌으며 "로봇 시리즈" ( "I, robot"포함 , 영화에도 적용됨)라고합니다.
이 작품들 대부분의 기본 전제는 AI가 그것이 의식이되어 지능에서 인간을 능가 할 정도로 진화 할 것이라는 점이다. 할리우드 영화는 주로 로봇과 로봇과 인간 사이의 싸움에 초점을 맞추고 있지만 실제 인공 지능 (즉,이를 제어하는 "두뇌")에 대한 강조는 충분하지 않습니다. 부수적으로, 이야기로 인해이 AI는 일반적으로 모든 것을 제어하는 슈퍼 컴퓨터로 묘사됩니다 (따라서 주인공은 특정한 목표를가집니다). "모호한 지능"에 대한 탐색이 충분하지 않습니다 (더 현실적인 것 같습니다).
현실에서 AI는 특정 작업을 해결하는 데 중점을 둡니다! 다른 영역에서 문제를 해결할 수있는 인공 지능 에이전트 (예 : 음성 이해 및 이미지 처리 및 운전 등 ... 인간처럼)는 인공 지능 (AI)이라고하며 인공 지능이 "생각"할 수 있어야합니다. 의식.
사실, 우리는 일반 인공 지능 과는 다른 방식 입니다! 그러나 앞으로 이것이 왜 달성 될 수 없는지에 대한 증거 는 없다고 합니다. 따라서 현재 AI의 초기 단계에 있더라도 AI가 인공 지능보다 인공 지능으로 진화하지 않을 것이라고 믿을 이유가 없습니다.
세계를 정복하는 인공 지능이 발생하는 것보다 먼 길 임에도 불구하고 오늘날 인공 지능에 관심을 가져야 할 몇 가지 이유가 있지만 로봇을 포함하지 않습니다! 좀 더 집중하고 싶은 두 번째 범주는 오늘날의 AI를 악의적으로 사용하는 것입니다.
오늘 사용 가능한 AI 응용 프로그램 에만 중점을 둘 것 입니다 . 악의적 인 의도로 사용될 수있는 AI의 몇 가지 예 :
DeepFake : 다른 사람의 비디오를 다른 사람의 이미지에 적용하는 기술입니다. 이것은 유명인 포르노로 최근 인기를 얻었으며 가짜 뉴스 와 사기 를 생성하는 데 사용될 수 있습니다 . 출처 : 1 , 2 , 3
의 사용으로 대량 감시 시스템 및 얼굴 인식 인식 할 수있는 소프트웨어 초당 얼굴의 수백만 , AI는 대량 감시에 사용할 수 있습니다. 비록 대량 감시를 생각할 때 중국을 생각하지만 런던 , 애틀랜타 , 베를린과 같은 많은 서부 도시 는 세계에서 가장 감시되는 도시 중 하나입니다 . 중국은 1984 년 조지 오웰 (George Orwell)의 페이지에서 곧바로 나오는 민간인을위한 평가 시스템 인 사회 신용 시스템 을 채택함으로써 상황을 한 단계 더 발전시켰다 .
소셜 미디어를 통해 사람들에게 영향을 미칩니다 . 목표 마케팅 및 목표 배치 (많은 인터넷 회사의 일반적인 관행)를 목표로 사용자의 취향을 인식하는 것 외에도 AI는 사람들의 투표에 다른 영향을 미치기 위해 악의적으로 사용될 수 있습니다. 출처 : 1 , 2 , 3 .
해킹 .
드론 공격, 미사일 타겟팅 시스템과 같은 군사용 애플리케이션.
이 범주는 상당히 주관적이지만 AI의 개발에는 부작용이있을 수 있습니다. 이 범주와 이전 범주의 차이점은 이러한 효과는 유해하지만 의도적으로 수행되지 않는다는 것입니다. 오히려 AI의 발달로 발생합니다. 몇 가지 예는 다음과 같습니다.
작업이 중복되고 있습니다. AI가 나아질수록 많은 일자리가 AI로 대체 될 것입니다. 불행히도 대부분의 기술 개발에 이러한 부작용이 있기 때문에 이에 대해 수행 할 수있는 일이 많지 않습니다 (예 : 농업 기계로 인해 많은 농부들이 일자리를 잃게되고 자동화는 많은 공장 노동자를 대체했으며 컴퓨터는 같은 일을했습니다).
우리 데이터 의 편견 강화 . AI (특히 신경망)는 훈련 된 데이터만큼 우수하고 이미 데이터에 존재하는 다양한 형태의 사회적 편견을 영속화하고 강화하는 경향이 있기 때문에 이것은 매우 흥미로운 범주입니다. 인종 차별과 성 차별 행동을 나타내는 네트워크의 많은 예가 있습니다. 출처 : 1 , 2 , 3 , 4 .
이 모든 것이 이미 본격적으로 진행되고 있다고 언급 했습니까 ?
AI와 AGI간에 명확한 경계는 없지만이 섹션은 AGI로 나아가면 어떤 일이 발생하는지에 대해 자세히 설명합니다. 두 가지 대안이 있습니다.
첫 번째 경우, 인공 지능이 "불법적"이되면 다른 인공 지능을 만들어 인공 지능을 제거하고 중화시킬 수 있습니다. 두 번째 경우, 우리는 할 수 없으며 운명에 처해 있습니다. AI는 새로운 삶의 형태가 될 것이며 우리는 멸종 될 것입니다.
잠재적 인 문제는 다음과 같습니다.
저는 AGI가 다가오고 있다고 생각하며 이러한 문제를 염두에두고 최소화해야합니다.
다른 답변 외에도 핵 쿠키 공장 예제에 추가하고 싶습니다.
기계 학습 AI는 기본적으로 인간이 묘사 한 목표를 달성하려고합니다. 예를 들어, 사람은 쿠키 팩토리를 실행하는 AI를 만듭니다. 그들이 구현하는 목표는 수익성이 가장 높은 수익성을 위해 가능한 많은 쿠키를 판매하는 것입니다.
이제 충분히 강력한 AI를 상상해보십시오. 이 AI는 그가 다른 쿠키 공장을 모두 파헤 치면 모든 사람이 공장에서 쿠키를 사야 매출이 증가하고 수익이 높아지는 것을 알 수 있습니다.
따라서 인간의 실수는 알고리즘에서 폭력을 사용하는 것에 대한 처벌을주지 않습니다. 인간은 알고리즘이이 결론에 도달 할 것으로 기대하지 않았기 때문에 쉽게 간과됩니다.
AI가 해를 입히는 가장 좋아하는 시나리오는 높은 지능이 아니라 낮은 지능입니다. 구체적으로, 회색 끈적 가설.
여기에서 자동 복제 된 자동 프로세스가 즉시 실행되고 모든 리소스가 자체의 복사본으로 변환됩니다.
여기서 중요한 점은 AI가 지능이 높거나 일반 지능이 있다는 의미에서 "스마트"하지 않다는 것입니다. 단 한 가지로 매우 우수하며 기하 급수적으로 복제 할 수있는 능력이 있습니다.
가장 큰 실제 위협은 우리가 이미보고있는 불균형 / 분열이라고 생각합니다. 국가를 90 % 퇴직시키는 데 따른 변화는 실제적이며 결과는 (부정 리가 더 고르지 않게 분배 될) 결과는 무시 무시합니다.
나는 대중의 두려움과 반대되는 방향으로가는 예를 가지고 있지만, 나는 이미 일어나고있는 매우 실제적인 것입니다. AI 고유의 것은 아니지만 AI를 통해 악화 될 것이라고 생각합니다. 중요한 애플리케이션에서 AI 결론을 맹목적으로 신뢰하는 것은 인간 의 문제입니다 .
우리는 인간 전문가들이 결정을 내릴 많은 분야가 있습니다. 예를 들어 약을 복용하십시오-약 X 또는 약 Y를 제공해야합니까? 내가 염두에 둔 상황은 누군가가 매우 세 심하게주의를 기울이고 많은 전문 지식을 사용하고 결과가 실제로 중요한 경우가 많은 복잡한 문제 (Cynefin 의미)입니다.
의료 정보 학자들은 이러한 종류의 문제에 대해 의사 결정 지원 시스템을 작성해야합니다 (그리고 다른 영역에서도 같은 유형을 가정합니다). 그들은 최선을 다하지만 인간 전문가는 항상 결정을 내릴 때 한 가지 의견으로 시스템 제안을 항상 고려할 것으로 기대합니다. 많은 경우에 지식의 상태와 개발자가 이용할 수있는 리소스를 고려할 때 다른 것을 약속하는 것은 무책임합니다. 전형적인 예는 방사선에 컴퓨터 비전을 사용하는 것입니다. 환자는 CT 스캔을 받고 AI는 이미지를 처리하고 환자에게 종양이 있는지 여부를 결정해야합니다.
물론 AI는 완벽하지 않습니다. 골드 표준에 대해 측정하더라도 100 % 정확도를 달성하지 못합니다. 그런 다음 자체 목표 측정 항목과 비교하여 실적이 좋은 모든 사례가 있지만 문제 측정 항목이 목표 측정 항목을 제대로 캡처하지 못하기 때문에 CT 컨텍스트에서 예를 생각할 수는 없지만 추측합니다. 우리는 알고리즘이 게시물에서 인기를 선호하는 SE에서도 볼 수 있습니다. 이는 사실에 대한 불완전한 프록시입니다.
당신은 아마 마지막 단락을 읽고 "그래, 나는 첫 번째 ML 과정에서 내가 택한 것을 배웠다"고 고개를 끄덕였다. 맞춰봐? 의사는 입문 ML 과정을 수강하지 않았습니다. 그들은 의학 저널에 게재되는 논문의 결론을 이해하기에 충분한 통계적 소양이 거의 없습니다. 그들이 27 번째 환자와 대화 할 때, 7 시간 동안 16 시간 교대 근무, 배고프고 정서적으로 배가 고파서 CT가 그다지 잘 보이지는 않지만 컴퓨터가 "악의는 아니다"고 말합니다. 이미지에 더 집중하거나 교과서를 찾거나 동료와상의하는 데 10 분이 더 걸립니다. 그들은 단지 컴퓨터가 말하는 것과 함께 가고, 그들의인지 적 부하가 다시 급증하지 않는 것에 감사합니다. 그래서 그들은 전문가가 아닌 화면에서 무언가를 읽는 사람들로 변합니다. 보다 나쁜, 일부 병원에서는 행정부가 컴퓨터를 신뢰하는 것뿐만 아니라 컴퓨터가 편리한 희생양임을 알게되었습니다. 따라서 의사는 컴퓨터의 출력에 맞지 않는 나쁜 직감을 가지고 있으며, 그 직감을 수행하고 AI의 의견을 무시하기로 선택한 자신을 방어하기가 어렵습니다.
AI는 강력하고 유용한 도구이지만 항상 도구를 대체 할 수없는 작업이 있습니다.
이것은 다른 답변을 보완하려는 의도 일 뿐이므로 AI가 기꺼이 인류를 노예로 만들려는 가능성에 대해서는 논의하지 않을 것입니다.
그러나 이미 다른 위험이 있습니다. 나는 이것을 마스터되지 않은 기술 이라고 부를 것이다 . 나는 과학과 기술을 배웠고, IMHO, 인공 지능 그 자체로 는 선과 악, 자유에 대한 개념이 없습니다. 그러나 그것은 인간에 의해 만들어지고 사용되며 그 비이성적 인 행동 때문에 관여 할 수 있습니다.
AI보다 일반적인 IT와 관련된 실제 사례로 시작하겠습니다. 바이러스 나 다른 맬웨어에 대해 이야기하겠습니다. 컴퓨터는 데이터를 빠르게 처리하기에 적합한 어리석은 기계입니다. 그래서 대부분의 사람들은 그들에게 의존합니다. 일부 (나쁜) 사람들은 컴퓨터의 올바른 동작을 방해하는 맬웨어를 개발합니다. 그리고 우리 모두는 컴퓨터 손실에 대비할 수없는 중소 규모 조직에 심각한 영향을 미칠 수 있음을 알고 있습니다.
AI는 컴퓨터 기반이므로 컴퓨터 유형 공격에 취약합니다. 여기 내 예는 AI 기반 자동차입니다. 이 기술은 거의 작동 준비가되었습니다. 그러나 자동차가 도로에서 다른 사람을 공격하려고하는 맬웨어의 영향을 상상해보십시오. AI의 코드에 직접 액세스하지 않아도 사이드 채널에 의해 공격받을 수 있습니다 . 예를 들어 카메라를 사용하여 신호 표시를 읽습니다. 그러나 기계 학습이 구현되는 방식으로 인해 AI 일반은 인간이하는 것과 같은 방식으로 장면을 분석하지 않습니다. 연구원들은 일반 인간이 원래의 표시를 볼 수있는 방식으로 표시를 변경할 수 있지만 AI는 다른 표시를 볼 수 있음을 보여주었습니다. 표지판이 도로 우선 표지판이라고 상상해보십시오.
내가 의미하는 바는 AI에 악의적 인 의도가 없더라도 악의적 인 사람들이 악의적 인 행동을하도록 노력할 수 있다는 것입니다. 그리고 더 중요한 행동은 AI (medecine, 자동차, 비행기, 폭탄을 말하지 않는)에 위임 될 위험이 높습니다. 다르게 말하면, 나는 AI 자체를 두려워하지 않지만 인간이 AI를 사용할 수있는 방식으로 두려워합니다.
가장 실제적인 (즉, 현재의 기존 AI와 관련된) 위험 중 하나는 두 가지 이유로 감독되지 않은 AI에 맹목적으로 의존하고 있다고 생각합니다.
AI 시스템의 물리적 오류는 물리적 시스템이 잘못된 값을 제공하기 시작하여 테스트되지 않은 영역에서 심각하게 잘못된 결과를 생성하기 시작할 수 있습니다. 이것은 때때로자가 테스트와 중복으로 사용되지만 때때로 인간의 감독이 필요합니다.
자체 학습 AI는 또한 소프트웨어의 약점을 가지고 있습니다. 체중 네트워크 또는 통계 표현은 하나의 잘못된 결과에 갇히는 로컬 최소 점에 접근 할 수 있습니다.
이것은 다행스럽게도 자주 논의되지만 언급 할만한 가치가 있습니다. AI 시스템의 입력 분류는 종종 훈련 / 테스트 데이터 세트도 바이어스 되었기 때문에 바이어스됩니다. 이로 인해 AI가 특정 민족을 인식하지 못하는 경우가 더 분명해졌습니다. 그러나 AI가 특정 데이터를 인식하지 못하고 실수로 공장에서 화재를 일으키거나 장비를 부수거나 사람들을 다치게하는 등의 일부 나쁜 사고 후에 만 발견 될 수있는 명백한 사례는 거의 없습니다.
로봇이 휴먼 머신 인터페이스와 유사하면 장치는 원격 제어 차량과 동일합니다. 조이스틱 뒤에있는 조작자와 논의하고 원하는 행동에 대해 협상 할 수 있습니다. 원격 제어 로봇은 자신의 행동을 인간에게 추적하고 동기를 기대할 수 있기 때문에 안전한 발명품입니다. 그들은 일상 생활을 향상시키는 데 사용될 수 있으며, 그들과 함께 노는 것은 재미 있습니다.
반대로 일부 로봇은 조이스틱으로 제어되지 않지만 내부 주사위 생성기와 함께 작동합니다. 주사위 장난감은 도박에서 사회적 역할로 알려져 있지만 신비한 의미가 있습니다. 일반적으로 무작위 발생기는 인간의 영향을 벗어난 어두운 힘에 의해 제어되는 혼란스러운 행동과 강하게 연결되어 있습니다. 로봇에 내장되어 있고 학습 알고리즘으로 개선 된 전자 주사위는 인간의 기계 인터페이스와 반대이지만 무작위로 제어되는 로봇은 예상 할 수없는 인간과 게임을하기 때문에 문제가 될 수 있습니다. 다음 주사위 수를 예측할 수 없으므로 로봇도 갑자기 동작합니다.
무작위로 통제되는 게임과 부정적인 사회적 영향 사이의 연결은 다음 문장에서 설명되었습니다.
인용 :“많은 전통적인 비 서구 사회에서 도박꾼들은 신들에게 성공을 위해기도하고 신의 뜻으로 승패를 설명 할 수 있습니다. “Binde, Per. "도박과 종교 : 콩코드와 갈등의 역사." 도박 문제 20 (2007) : 145-165.
인간은 현재 "생각하는 것"의 생태-경제적 틈새 시장에 존재합니다.
AI는 또한 생각하는 것이므로 우리의 생태 경제 틈새 시장에 침입 할 것입니다. 생태학과 경제학에서 틈새 시장을 점령하는 것은 지속적인 생존을위한 훌륭한 계획이 아닙니다.
이로 인해 인간의 생존이 정확히 손상되는 것은 꽤 혼란 스러울 것입니다. AI가 종으로서, 심지어 지배적 인 생활 형태로 인간의 생존을 위험에 빠뜨릴 수있는 여러 가지 그럴듯한 방법이있을 것입니다.
"슈퍼 윤리"가없고 인간보다 (제조하는 "신체"또는 세상을 조작하는 방법을 포함하여) 저렴하고 인간보다 똑똑하거나 똑똑한 강력한 인공 지능이 있다고 가정합니다.
우리가 자원을 위해 AI와 경쟁하기 시작하는 경우입니다. 그것은 미시 경제적 규모로 일어날 것입니다 (우리는이 문제를 해결하기 위해 인간을 고용하거나 AI를 구매 / 구축 / 임대 / 채용합니까?). AI가 사람들보다 저렴하고 똑똑해지는 속도에 따라, 이는 느리게 (한 번에 산업 일 수도 있음) 일어날 수 있습니다.
자본주의 경쟁에서, 더 저렴한 AI로 넘어 가지 않는 경쟁자들은 경쟁에서 벗어나게됩니다.
이제 단기적으로 AI의 장점이 미미할 경우 생산성을 높이기 전에 20 년 동안 인간을 교육하는 데 드는 높은 비용으로 인해이 과정이 느려질 수 있습니다. 이 경우 AI 대신 질병을 진단하기 위해 기아 임금보다 의사에게 지불하는 것이 가치가있을 수 있지만 학생 대출을 지불 할 가치는 없습니다. 그래서 새로운 인간 의사들은 훈련을 빨리 중단하고 기존 의사들은 빈곤 할 것입니다. 그런 다음 20-30 년이 넘는 AI는 진단 목적으로 의사를 완전히 대체 할 것입니다.
AI의 장점이 크면 빠를 것입니다. 의사는 인간 진단을 위해 빈곤 수준의 임금을 지불 할 가치조차 없습니다. 휘발유 농장이 이어질 때 근육 농장에서 일어나는 일을 볼 수 있습니다.
과거의 산업 혁명 동안, 인간이 생각할 수있는 곳에서 잉여 인간 노동자를 다른 행동으로 바꿀 수 있음을 의미합니다. 제조 라인, 서비스 경제 직업, 컴퓨터 프로그래밍 등. 그러나이 모델에서 AI는 그러한 종류의 직업을 가진 사람보다 훈련하고 구축하는 것이 저렴하고 똑똑하거나 똑똑합니다.
에탄올에 의해 유발되는 아랍의 봄에서 알 수 있듯이, 농작물과 경작지는 기계와 인간 모두에게 연료를 공급하는 데 사용될 수 있습니다. 농작물을 유용한 작업으로 전환하는 측면에서 기계가 더 효율적이면 식품 가격이 상승하기 시작합니다. 사람들은 실제로 굶어 죽기를 좋아하지 않으며, 이것을 막기 위해 정부를 전복시키기 위해 자신의 생명을 기꺼이 감수 할 것이기 때문에 이것은 일반적으로 폭동으로 이어집니다.
보조금 지원 식품 등을 제공하여 사람들에게 돈을 벌 수 있습니다. 이것이 경제적으로 치명적이지 않는 한 (즉, 충분히 비싸면이를 수행하지 않는 다른 장소로 인해 경쟁에서 벗어날 수 있음) 이것은 정치적으로 불안정합니다.
대안으로, 단기적으로, 점점 더 효율적인 AI 운영 경제로부터 이익을 받고있는 소유 카스트는 경찰이나 군사 카스트에게 그 폭동을 진압하기 위해 비용을 지불 할 수 있습니다. 이를 위해서는 지속적인 충성도를 보장하기 위해 경찰 / 군사 계급이 생활 수준에서 중상층에서 중상류층으로 올라 가야합니다.
AI를 도입 할 수있는 수익 센터 중 하나는 AI 기반 군사 및 정책입니다. 시각 및 기타 데이터 피드 처리를 기반으로 치명적이고 치명적이지 않은 병기를 제공하는 드론은 식품 가격 유발 폭동이나 기타 불안정성을 낮추는 데 필요한 중산층 경찰 / 군사 수를 줄일 수 있습니다. 우리가 이미 인공 지능이 생물학적 인 인간보다 더 싼 몸과 훈련을 가질 수 있다고 가정했듯이, 이것은 또한 당신이 지출 한 달러 당 배치 할 수있는 힘의 양을 증가시킬 수 있습니다.
이 시점에서 우리는 굶주린 사람들이 AI 실행 경제를 전복시키고 현재 사용되는보다 효율적인 사용으로 생산 수단을 압류하는 데 사용되는 AI 실행 경찰과 군대에 대해 이야기하고 있습니다.
정상에있는 시스템을 "소유"하는 흔적 인간은 그들의 부와 힘을 최적화하기 위해 지역적으로 합리적인 결정을 내립니다. 그들은 오래 지속될 수도 있고 지속되지 않을 수도 있습니다. 그들이 상대적으로 적은 양의 자원을 소모하고 AI 실행 경제를 망치지 않는 한, 그들을 제거해야 할 선택 압력이 많지 않을 것입니다. 다른 한편으로, 그들이 가치있는 것에 기여하지 않기 때문에, 그들은 "정상적인"입장은 정치적으로 불안정하다.
이 프로세스는 "강력한"일반 AI를 가정했습니다. 좁은 AI는 이것을 여러 조각으로 끌어낼 수 있습니다. 예를 들어, 저렴하고 효과적인 진단 컴퓨터는 대부분의 의사를 놀랍게도 짧은 시간 안에 빈곤으로 줄일 수 있습니다. 자가 운전 차량은 경제의 5 ~ 10 %를 삼킬 수 있습니다. 정보 기술은 이미 겸손한 AI로 소매 부문을 삼키고 있습니다.
모든 기술 발전은 인간을위한 점점 더 나은 일자리로 이어진다 고합니다. 그리고 이것은 지난 300 년 동안 사실이었습니다.
그러나 1900 년 이전에는 모든 기술 발전으로 말의 일자리가 점점 더 늘어났다는 것도 사실이었습니다. 그런 다음 ICE와 자동차가 도착했고 지금은 일하는 말이 훨씬 적습니다. 나머지 말들은 기본적으로 인간 개인 종들과 같습니다 : "와우, 시원하고 말"의 참신함과 거대한 동물을 타고 조종하는 재미를 유지합니다.
우리의 세계 경제가 AI로 간주되어야한다는 것을 아는 사람은 거의 없습니다.-돈 거래는 신경망을 통한 신호입니다. 신경망의 노드는 다른 회사 나 돈을 지불하거나받는 개인이 될 것입니다. -인공으로 제작 된 인공 제품
이 신경망은 인간보다 작업이 더 낫습니다. 자본주의는 항상 인간이 계획 한 경제 (계획-경제)에 대항하여 승리했습니다.
이 신경망은 위험한가요? 회사 폐기물로 오염 된 하천에서 어부와 대기업의 소득이 큰 경우에는 다를 수 있습니다.
이 AI는 어떻게 위험 해졌습니까? 인간의 탐욕 때문이라고 대답 할 수 있습니다. 우리의 창조물은 우리 자신을 반영합니다. 다시 말해, 우리는 신경망이 잘 동작하도록 훈련시키지 않았습니다. 우리는 모든 인간의 삶의 질을 향상시키기 위해 신경망을 훈련시키는 대신에, 풍부한 Fokes를 더욱 부유하게 만들기 위해 그것을 훈련 시켰습니다.
더 이상 위험하지 않도록이 AI를 훈련시키는 것이 쉬울까요? 아마 아닐 수도 있고, 인공 지능이 생명보다 클 수도 있습니다. 그것은 가장 적합한 생존입니다.