인공 지능이 어떻게 우리를 해칠 수 있습니까?


50

우리는 종종 인공 지능이 인간에게 해를 끼치거나 심지어 죽일 수도 있다는 말을 듣고 위험 할 수 있습니다.

인공 지능이 어떻게 우리를 해칠 수 있습니까?


6
AI가 위험해질 수있는 여러 가지 이유와 시나리오가 제시되어 있기 때문에 이것은 다소 광범위합니다. 예를 들어, DuttaA가 위에서 제안한 바와 같이, 인간은 무엇을 목표로할지 결정하는 지능형 무기 시스템을 설계 할 수 있으며, 이는 이미 좁은 AI를 사용하는 것이 가능하기 때문에 정말 걱정입니다. 읽은 특정 관심사를 인용하거나 연결하여 이해하려는 특정 두려움에 대해 더 많은 맥락을 제시 할 수 있습니다 ( edit 사용하십시오 ).
닐 슬레이터

4
@ NeilSlater 예, 너무 광범위 할 수 있지만이 답변 ai.stackexchange.com/a/15462/2444가 그럴듯한 이유를 제공 한다고 생각합니다 . 잘못된 가정을 제거하기 위해 질문을 편집했습니다.
nbro

2
이 질문은 일반적으로 "초 지능"이나 AI에 관한 것입니까? (예를 들어, 가상의 초 지능이라면, 가상의 " 제어 문제 "가 문제입니다. 그러나 현대의 자동 무기 시스템은 초
지능적이거나

@DukeZhou OP는 원래 그리고 명백하게 초 지능을 언급하지 않았지만, 그가 SI를 포함하여 AI로 간주 될 수있는 모든 것을 언급하고 있다고 생각합니다.
nbro

3
먼저 정상적인 지능이 어떻게 해를 입힐 수 있습니까? 그러면 대답은 같습니다.
J ...

답변:


46

tl; dr

많은있다 유효 사람들이 우려하고 있습니다 (또는 더 나은 이유 에 대해 걱정 ) AI를, 모든 로봇과 종말 시나리오에 포함되지 않음.

이러한 문제를 더 잘 설명하기 위해 세 가지 범주로 나눕니다.

의식있는 AI

이것은 당신의 질문이 말하는 AI의 유형입니다. 인류를 파괴 / 노예화하는 초 지능형 인공 지능 AI. 이것은 대부분 공상 과학 소설에 의해 우리에게 가져옵니다. 할리우드의 대표적인 예로 "터미네이터" , "매트릭스" , "Age of Ultron"이 있습니다. 가장 영향력있는 소설은 Isaac Asimov에 의해 쓰여졌으며 "로봇 시리즈" ( "I, robot"포함 , 영화에도 적용됨)라고합니다.

이 작품들 대부분의 기본 전제는 AI가 그것이 의식이되어 지능에서 인간을 능가 할 정도로 진화 할 것이라는 점이다. 할리우드 영화는 주로 로봇과 로봇과 인간 사이의 싸움에 초점을 맞추고 있지만 실제 인공 지능 (즉,이를 제어하는 ​​"두뇌")에 대한 강조는 충분하지 않습니다. 부수적으로, 이야기로 인해이 AI는 일반적으로 모든 것을 제어하는 ​​슈퍼 컴퓨터로 묘사됩니다 (따라서 주인공은 특정한 목표를가집니다). "모호한 지능"에 대한 탐색이 충분하지 않습니다 (더 현실적인 것 같습니다).

현실에서 AI는 특정 작업을 해결하는 데 중점을 둡니다! 다른 영역에서 문제를 해결할 수있는 인공 지능 에이전트 (예 : 음성 이해 및 이미지 처리 및 운전 등 ... 인간처럼)는 인공 지능 (AI)이라고하며 인공 지능이 "생각"할 수 있어야합니다. 의식.

사실, 우리는 일반 인공 지능 과는 다른 방식 입니다! 그러나 앞으로 이것이 왜 달성 될 없는지에 대한 증거없다고 합니다. 따라서 현재 AI의 초기 단계에 있더라도 AI가 인공 지능보다 인공 지능으로 진화하지 않을 것이라고 믿을 이유가 없습니다.

악의적 인 의도로 AI 사용

세계를 정복하는 인공 지능이 발생하는 것보다 먼 길 임에도 불구하고 오늘날 인공 지능에 관심을 가져야 할 몇 가지 이유가 있지만 로봇을 포함하지 않습니다! 좀 더 집중하고 싶은 두 번째 범주는 오늘날의 AI를 악의적으로 사용하는 것입니다.

오늘 사용 가능한 AI 응용 프로그램 에만 중점을 둘 것 입니다 . 악의적 인 의도로 사용될 수있는 AI의 몇 가지 예 :

  • DeepFake : 다른 사람의 비디오를 다른 사람의 이미지에 적용하는 기술입니다. 이것은 유명인 포르노로 최근 인기를 얻었으며 가짜 뉴스 와 사기 를 생성하는 데 사용될 수 있습니다 . 출처 : 1 , 2 , 3

  • 의 사용으로 대량 감시 시스템얼굴 인식 인식 할 수있는 소프트웨어 초당 얼굴의 수백만 , AI는 대량 감시에 사용할 수 있습니다. 비록 대량 감시를 생각할 때 중국을 생각하지만 런던 , 애틀랜타 , 베를린과 같은 많은 서부 도시 는 세계에서 가장 감시되는 도시 중 하나입니다 . 중국은 1984 년 조지 오웰 (George Orwell)의 페이지에서 곧바로 나오는 민간인을위한 평가 시스템 인 사회 신용 시스템 을 채택함으로써 상황을 한 단계 더 발전시켰다 .

  • 소셜 미디어를 통해 사람들에게 영향을 미칩니다 . 목표 마케팅 및 목표 배치 (많은 인터넷 회사의 일반적인 관행)를 목표로 사용자의 취향을 인식하는 것 외에도 AI는 사람들의 투표에 다른 영향을 미치기 위해 악의적으로 사용될 수 있습니다. 출처 : 1 , 2 , 3 .

  • 해킹 .

  • 드론 공격, 미사일 타겟팅 시스템과 같은 군사용 애플리케이션.

AI의 부작용

이 범주는 상당히 주관적이지만 AI의 개발에는 부작용이있을 수 있습니다. 이 범주와 이전 범주의 차이점은 이러한 효과는 유해하지만 의도적으로 수행되지 않는다는 것입니다. 오히려 AI의 발달로 발생합니다. 몇 가지 예는 다음과 같습니다.

  • 작업이 중복되고 있습니다. AI가 나아질수록 많은 일자리가 AI로 대체 될 것입니다. 불행히도 대부분의 기술 개발에 이러한 부작용이 있기 때문에 이에 대해 수행 할 수있는 일이 많지 않습니다 (예 : 농업 기계로 인해 많은 농부들이 일자리를 잃게되고 자동화는 많은 공장 노동자를 대체했으며 컴퓨터는 같은 일을했습니다).

  • 우리 데이터편견 강화 . AI (특히 신경망)는 훈련 된 데이터만큼 우수하고 이미 데이터에 존재하는 다양한 형태의 사회적 편견을 영속화하고 강화하는 경향이 있기 때문에 이것은 매우 흥미로운 범주입니다. 인종 차별과 성 차별 행동을 나타내는 네트워크의 많은 예가 있습니다. 출처 : 1 , 2 , 3 , 4 .


4
"작업이 중복되는"이유가 왜 심각한 지 이해가되지 않습니다. 아무도 (또는 최소한 대다수의 인간) 일할 필요가없고 대신 취미와 인생을 즐기는 데 집중할 수 있다면 세상이 얼마나 아름답겠습니까?
kukis

4
@kukis 이미 부자가 아닌 한, 직업없이 음식, 집 등을 어떻게 구할 수 있습니까? 직업은 대부분의 사람들에게 생존을 의미합니다.
nbro

6
일자리가 중복되는 것에 대해, 우리는 그것에 대해 무언가를 할 수있는 것처럼 보입니다. 즉, 일자리를 가진 사람에게 의존하지 않도록 경제 모델을 개선합니다. 우리의 경제 시스템이 값싼 값싼 노동력으로 침수되면 고장이 나면 분명히 결함이있는 것입니다. 그리고이 결함이 예측 가능한 미래에 위험해질 것으로 예상되면이를 수정해야합니다.
Nat

2
AI가 주요 문제를 일으킬 수있는 또 다른 예는 주식 거래입니다. 요즘 대부분의 주식 거래는 경쟁이 치열한 AI로 인해 이루어지며, 이는 인간 거래자보다 훨씬 빠르게 반응 할 수 있습니다. 그러나 AI를 작성한 사람조차도 AI가 의사 결정을 내리는 이유를 반드시 이해하지 못하는 시점까지 이르렀으며 주식 예측 알고리즘으로 인해 시장에 치명적인 영향을 미쳤습니다.
대럴 호프만

8
@penelope AI가 대체하려고하는 모든 직업이 "관심이 낮은"것은 아닙니다. 나는 먼 미래에 대체 될 수있는 많은 수요가 많은 일자리가 있다고 주장한다. 의사, 상인 및 조종사 등이 그 예입니다. AI가 계속 발전하고 질병 진단에 계속 나아간다면 의사의 직업이 줄어든다고 생각하는 것은 무리가되지 않습니다.
Djib2011

14

단기

  • 산업 기계, 항공기 자동 조종 장치, 자율 주행 차 등의 물리적 사고 . 특히 악천후 또는 센서 고장과 같은 비정상적인 상황 의 경우 . 일반적으로 AI는 광범위하게 테스트되지 않은 조건에서 제대로 작동하지 않습니다.
  • 일자리 가용성 감소, 소외 계층에 대한 장벽과 같은 사회적 영향 . 대출, 보험, 가석방.
  • 추천 엔진 은 우리의 행동을 변화시키고 (자신의 "작은 세계"거품을 강화하기 위해) 점점 더 우리를 조작하고 있습니다. 추천 엔진은 일상적으로 다양한 종류의 부적절한 콘텐츠를 어린 아이들에게 제공합니다. 종종 콘텐츠 제작자 (예 : YouTube)가 올바른 키워드를 사용하여 어린이에게 친숙해지기 때문입니다.
  • 정치적 조작 ... 충분하다고 생각합니다.
  • 사생활 침해의 그럴듯한 부인 . AI가 이메일을 읽고 전화를 걸 수있게되었으므로 다른 사람이 사용자의 개인 정보에 대한 행동을 취하고 컴퓨터를 가지고 있다고 주장하기가 쉽습니다.
  • 전쟁을 비디오 게임으로 바꾸는 것, 즉 위험에 처하지 않고 사상자로부터 멀리 떨어진 사람에 의해 원격으로 운영되는 기계로 군인을 대체합니다.
  • 투명성 부족 . 우리는 의사 결정 뒤에 정당성을 얻는 수단이 거의없이 결정을 내릴 수있는 기계를 신뢰하고 있습니다.
  • 자원 소비 및 오염. 이는 단순한 AI 문제가 아니라 AI의 모든 개선으로 인해 빅 데이터에 대한 수요가 증가하고 있으며, 이로 인해 스토리지, 처리 및 네트워킹의 필요성이 대두됩니다. 전기 및 희귀 한 광물 소비 외에도 인프라는 수년의 수명 후에 폐기해야합니다.
  • 감시 – 스마트 폰과 청취 장치의 편재성으로 인해 데이터의 금광이 많지만 모든 부분을 조사하기에는 너무 많습니다. 물론 AI를 통해 체로 걸러 내십시오!
  • 사이버 보안 — 사이버 범죄자들이 AI를 활용하여 대상을 공격하고 있습니다.

모든 것이 이미 본격적으로 진행되고 있다고 언급 했습니까 ?

장기간

AI와 AGI간에 명확한 경계는 없지만이 섹션은 AGI로 나아가면 어떤 일이 발생하는지에 대해 자세히 설명합니다. 두 가지 대안이 있습니다.

  • 지능의 본질에 대한 향상된 이해의 결과로 AGI를 개발하거나
  • 또는 우리는 작동하는 것처럼 보이지만 지금은 많은 기계 학습과 같이 잘 이해하지 못합니다.

첫 번째 경우, 인공 지능이 "불법적"이되면 다른 인공 지능을 만들어 인공 지능을 제거하고 중화시킬 수 있습니다. 두 번째 경우, 우리는 할 수 없으며 운명에 처해 있습니다. AI는 새로운 삶의 형태가 될 것이며 우리는 멸종 될 것입니다.

잠재적 인 문제는 다음과 같습니다.

  • 복사 및 붙여 넣기. AGI의 한 가지 문제점은 데스크탑 컴퓨터에서 상당히 실행될 수 있다는 것입니다.
    • 스크립트 키즈 — 사람들은 AI를 다운로드하고 파괴적인 방식으로 매개 변수를 설정할 수 있습니다. 관련하여
    • 범죄 또는 테러리스트 그룹 은 원하는대로 AI를 구성 할 수 있습니다. AI를 다운로드하고 연구를 지시 한 다음 단계별 지침을 제공 할 수 있다면 폭탄 제작 또는 생물 무기 전문가를 찾을 필요가 없습니다.
    • 자가 복제 AI — 이에 대한 많은 컴퓨터 게임이 있습니다. AI가 느슨해져 바이러스처럼 퍼집니다. 처리 능력이 높을수록 자신을 보호하고 더 확산시킬 수 있습니다.
  • 컴퓨팅 리소스의 침입 . AI에 더 많은 컴퓨팅 성능이 도움이 될 수 있습니다. AI는 서버 리소스 또는 데스크톱 및 모바일 장치의 리소스를 구매하거나 훔칠 수 있습니다. 극단적으로 말하면 이것은 우리의 모든 장치가 단순히 사용할 수 없게되어 .world에 즉시 혼란을 초래할 수 있음을 의미 할 수 있습니다. 또한 막대한 전력 소비를 의미 할 수도 있습니다 (발전소는 컴퓨터로 제어되기 때문에 "플러그를 당기기"가 어려울 수 있습니다!)
  • 자동화 된 공장. 세계에서 더 많은 신체적 존재를 얻고 자하는 AGI는 공장을 인수하여 로봇을 생산할 수 있습니다.
  • 이것들은 다소 철학적 인 고려 사항이지만 일부는 AI가 우리를 인간으로 만드는 것을 파괴한다고 주장합니다.
    • 하위. 많은 AI 개체가 최고의 인간보다 똑똑하고, 빠르며, 신뢰할 수 있고, 창의적이라면 어떨까요?
    • 무의미. 육체 노동의 필요성을 대체하는 로봇과 지적 노동의 필요성을 대체하는 AI를 통해 우리는 실제로 할 일이 없습니다. AI가 앞서 나올 것이기 때문에 아무도 다시 노벨상을받을 수 없습니다. 왜 처음부터 교육을 받습니까?
    • 단일 문화 / 안정화 -다양한 시나리오 (예 : 단일 "자비로운 독재자"AGI) 사회에서 새로운 아이디어 나 어떤 종류의 변화도없이 (영원 할 수도 있지만) 영구적 패턴으로 고정 될 수 있습니다. 기본적으로 용감한 새로운 세계.

저는 AGI가 다가오고 있다고 생각하며 이러한 문제를 염두에두고 최소화해야합니다.


1
로봇을 만들기 위해 공장을 재 프로그래밍 할 수있는 인공 지능은 먼 거리에 있다고 생각합니다. 현대 "AI"는 정말 정교한 패턴 인식입니다.
user253751

나는 "장기"와 "AGI"라고 말했다. AGI는 정의상 정교한 패턴 인식 그 이상입니다. "정교한 패턴 인식"은 실제 응용 분야에서 가장 일반적으로 사용되는 방식으로 멀리 떨어져 있지만, 다른 방향 (특히 문제 분해 / 활동 계획, IMO는 이러한 유형의 시나리오의 핵심 요소입니다)에는 이미 많은 작업이 있습니다. )
Artelius

8

다른 답변 외에도 핵 쿠키 공장 예제에 추가하고 싶습니다.

기계 학습 AI는 기본적으로 인간이 묘사 한 목표를 달성하려고합니다. 예를 들어, 사람은 쿠키 팩토리를 실행하는 AI를 만듭니다. 그들이 구현하는 목표는 수익성이 가장 높은 수익성을 위해 가능한 많은 쿠키를 판매하는 것입니다.

이제 충분히 강력한 AI를 상상해보십시오. 이 AI는 그가 다른 쿠키 공장을 모두 파헤 치면 모든 사람이 공장에서 쿠키를 사야 매출이 증가하고 수익이 높아지는 것을 알 수 있습니다.

따라서 인간의 실수는 알고리즘에서 폭력을 사용하는 것에 대한 처벌을주지 않습니다. 인간은 알고리즘이이 결론에 도달 할 것으로 기대하지 않았기 때문에 쉽게 간과됩니다.


8
이것은 누군가 누군가 Unity에서 계단을 오르기 위해 AI를 훈련시키고 있던 곳에서 reddit에서 본 실제 사례를 상기시킵니다. 그것은 많은 힘으로 땅에 닿을 수 있고 물리학은 결함이있어 공중으로 날아가서 가장 빨리 올라가는 것을 발견했습니다.
GammaGames

2
더 나쁜 것은 인간이 쿠키로 만드는 데 더 잘 사용되는 원자로 만들어 졌다는 것입니다.
nick012000

나는이 주장을 전에 들었다. AI 마감일을 예측하는 실수 중 하나는 AI가 무엇을하는지 예측할 수 없다는 것입니다. AI가 다른 쿠키 회사를 핵무기는 세계 경제를 버리고 쿠키에 대한 잠재적 수요를 파괴 할 수 있다는 것을 AI가 인식 할 수있을 것입니다 ... 경제, 공급 및 수요의 법칙
Zakk Diaz

8

AI가 해를 입히는 가장 좋아하는 시나리오는 높은 지능이 아니라 낮은 지능입니다. 구체적으로, 회색 끈적 가설.

여기에서 자동 복제 된 자동 프로세스가 즉시 실행되고 모든 리소스가 자체의 복사본으로 변환됩니다.

여기서 중요한 점은 AI가 지능이 높거나 일반 지능이 있다는 의미에서 "스마트"하지 않다는 것입니다. 단 한 가지로 매우 우수하며 기하 급수적으로 복제 할 수있는 능력이 있습니다.


3
FWIW, 인간은 이미 회색입니다. 우리는 훨씬 더 효율적인 회색 끈으로 대체되고 싶지 않은 이기적인 회색 끈입니다.
user253751

1
@immibis 물론 그것은 사실이 아니라 철학적 POV입니다. 인간과 자기 복제 / 자기 유지 기계를 구별하는 사람들이 많이 있습니다. 대다수가 당신의 정의를 마음에
담았다

1
@immibis 이 답변이 참조 하는 Wikipedia의 goo goo 기사 를 읽었습니까 ? 이 용어는 지능적인 행동이 아닌 지능적이지 않은 (나노) 기계를 말합니다. 우리는 알버트 아인슈타인을 먹을 수 없었기 때문에 인간도 AI도 아니고 AI도 아닙니다.
kubanczyk

@kubanczyk 용어 "지능"의 기본 의미는 학계와 일반 대중 모두에게 널리 이해되지 않은 것으로 보인다. 지능은 일반적으로 (다른 의사 결정 메커니즘과 관련이있는) 스펙트럼이며 문제의 맥락에서 주어진 결정의 유용성을 기반으로합니다. 따라서 회색 끈적 끈적한 지능은 지능이 제한되고 좁아집니다.
DukeZhou

5

가장 큰 실제 위협은 우리가 이미보고있는 불균형 / 분열이라고 생각합니다. 국가를 90 % 퇴직시키는 데 따른 변화는 실제적이며 결과는 (부정 리가 더 고르지 않게 분배 될) 결과는 무시 무시합니다.


2
사람들은 산업 혁명 동안 대부분의 농업 일자리를 불필요하게 만들면서 같은 말을했습니다. 당신이 틀리지 않을 수도 있고 개인적으로 걱정하는 것이 있지만, 연구 동향에 따르면 이것이 문제가되지 않을 수 있으며 새로운 일자리가 생길 가능성이 있습니다.
Programmdude

@Programmdude-나는 수십 년 동안 일어날 일과 P의 출현을 통해 산업 혁명의 변화와 심지어 비서직의 제거 사이에는 근본적인 차이가 있다고 생각합니다.
Mayo

2
@Programmdude 그리고 사람들이 옳았습니다. 산업 혁명은 사람들의 생활 방식에 관한 모든 것을 바꾸어 놓았으며 부의 분배와 사람들이 농장 소득에 존재할 수있는 능력면에서 극히 파괴적이었습니다. 다른 관점에서 : 미래 몇 백 년을 되돌아 보는 노예 소유자는 아마도이시기에 AI가 그들의 상황을 형성 한 이후로 파괴적인 것으로 보지 않을 것입니다.
Bill K

@BillK 노예 소유자에 관한 부분까지 당신과 함께했습니다. AI가 스스로를 인식하지 못한다는 것을 알고 있습니까?
레이

@ 레이 나는 인공 지능을 의미하는 것이 아니라 인공 지능을 통제하는 사람들을 의미했고 (따라서 모든 부를 가질 수 있음) 실제로 우리와 이해할 수 없을 정도로 다른 것들을 지적 할 수있는 방법 일 뿐이었다. ' 다시 돌아 보는 느낌이 들지 않습니다.
Bill K

5

나는 대중의 두려움과 반대되는 방향으로가는 예를 가지고 있지만, 나는 이미 일어나고있는 매우 실제적인 것입니다. AI 고유의 것은 아니지만 AI를 통해 악화 될 것이라고 생각합니다. 중요한 애플리케이션에서 AI 결론을 맹목적으로 신뢰하는 것은 인간 의 문제입니다 .

우리는 인간 전문가들이 결정을 내릴 많은 분야가 있습니다. 예를 들어 약을 복용하십시오-약 X 또는 약 Y를 제공해야합니까? 내가 염두에 둔 상황은 누군가가 매우 세 심하게주의를 기울이고 많은 전문 지식을 사용하고 결과가 실제로 중요한 경우가 많은 복잡한 문제 (Cynefin 의미)입니다.

의료 정보 학자들은 이러한 종류의 문제에 대해 의사 결정 지원 시스템을 작성해야합니다 (그리고 다른 영역에서도 같은 유형을 가정합니다). 그들은 최선을 다하지만 인간 전문가는 항상 결정을 내릴 때 한 가지 의견으로 시스템 제안을 항상 고려할 것으로 기대합니다. 많은 경우에 지식의 상태와 개발자가 이용할 수있는 리소스를 고려할 때 다른 것을 약속하는 것은 무책임합니다. 전형적인 예는 방사선에 컴퓨터 비전을 사용하는 것입니다. 환자는 CT 스캔을 받고 AI는 이미지를 처리하고 환자에게 종양이 있는지 여부를 결정해야합니다.

물론 AI는 완벽하지 않습니다. 골드 표준에 대해 측정하더라도 100 % 정확도를 달성하지 못합니다. 그런 다음 자체 목표 측정 항목과 비교하여 실적이 좋은 모든 사례가 있지만 문제 측정 항목이 목표 측정 항목을 제대로 캡처하지 못하기 때문에 CT 컨텍스트에서 예를 생각할 수는 없지만 추측합니다. 우리는 알고리즘이 게시물에서 인기를 선호하는 SE에서도 볼 수 있습니다. 이는 사실에 대한 불완전한 프록시입니다.

당신은 아마 마지막 단락을 읽고 "그래, 나는 첫 번째 ML 과정에서 내가 택한 것을 배웠다"고 고개를 끄덕였다. 맞춰봐? 의사는 입문 ML 과정을 수강하지 않았습니다. 그들은 의학 저널에 게재되는 논문의 결론을 이해하기에 충분한 통계적 소양이 거의 없습니다. 그들이 27 번째 환자와 대화 할 때, 7 시간 동안 16 시간 교대 근무, 배고프고 정서적으로 배가 고파서 CT가 그다지 잘 보이지는 않지만 컴퓨터가 "악의는 아니다"고 말합니다. 이미지에 더 집중하거나 교과서를 찾거나 동료와상의하는 데 10 분이 더 걸립니다. 그들은 단지 컴퓨터가 말하는 것과 함께 가고, 그들의인지 적 부하가 다시 급증하지 않는 것에 감사합니다. 그래서 그들은 전문가가 아닌 화면에서 무언가를 읽는 사람들로 변합니다. 보다 나쁜, 일부 병원에서는 행정부가 컴퓨터를 신뢰하는 것뿐만 아니라 컴퓨터가 편리한 희생양임을 알게되었습니다. 따라서 의사는 컴퓨터의 출력에 맞지 않는 나쁜 직감을 가지고 있으며, 그 직감을 수행하고 AI의 의견을 무시하기로 선택한 자신을 방어하기가 어렵습니다.

AI는 강력하고 유용한 도구이지만 항상 도구를 대체 할 수없는 작업이 있습니다.


더 많은 예를 찾고 있다면 보석이나 가석방 신청자의 재범률을 예측하기 위해 기계 학습을 사용하는 것에 대한 논쟁은 좋은 예입니다. 의사와 판사가 AI를 이해하는 데 필요한 통계적 전문 지식과 의료 및 법적 전문 지식을 갖지 않아야한다는 데 동의합니다. AI 디자이너는 알고리즘의 오류 가능성을 알고 있어야하며 사용자에게 명확한 지침을 제공해야합니다. 의사에게 직접 결과를 제공하는 대신 CT 스캔을 볼 위치를 알려주십시오.
craq

4

이것은 다른 답변을 보완하려는 의도 일 뿐이므로 AI가 기꺼이 인류를 노예로 만들려는 가능성에 대해서는 논의하지 않을 것입니다.

그러나 이미 다른 위험이 있습니다. 나는 이것을 마스터되지 않은 기술 이라고 부를 것이다 . 나는 과학과 기술을 배웠고, IMHO, 인공 지능 그 자체로 는 선과 악, 자유에 대한 개념이 없습니다. 그러나 그것은 인간에 의해 만들어지고 사용되며 그 비이성적 인 행동 때문에 관여 할 수 있습니다.

AI보다 일반적인 IT와 관련된 실제 사례로 시작하겠습니다. 바이러스 나 다른 맬웨어에 대해 이야기하겠습니다. 컴퓨터는 데이터를 빠르게 처리하기에 적합한 어리석은 기계입니다. 그래서 대부분의 사람들은 그들에게 의존합니다. 일부 (나쁜) 사람들은 컴퓨터의 올바른 동작을 방해하는 맬웨어를 개발합니다. 그리고 우리 모두는 컴퓨터 손실에 대비할 수없는 중소 규모 조직에 심각한 영향을 미칠 수 있음을 알고 있습니다.

AI는 컴퓨터 기반이므로 컴퓨터 유형 공격에 취약합니다. 여기 내 예는 AI 기반 자동차입니다. 이 기술은 거의 작동 준비가되었습니다. 그러나 자동차가 도로에서 다른 사람을 공격하려고하는 맬웨어의 영향을 상상해보십시오. AI의 코드에 직접 액세스하지 않아도 사이드 채널에 의해 공격받을 수 있습니다 . 예를 들어 카메라를 사용하여 신호 표시를 읽습니다. 그러나 기계 학습이 구현되는 방식으로 인해 AI 일반은 인간이하는 것과 같은 방식으로 장면을 분석하지 않습니다. 연구원들은 일반 인간이 원래의 표시를 볼 수있는 방식으로 표시를 변경할 수 있지만 AI는 다른 표시를 볼 수 있음을 보여주었습니다. 표지판이 도로 우선 표지판이라고 상상해보십시오.

내가 의미하는 바는 AI에 악의적 인 의도가 없더라도 악의적 인 사람들이 악의적 인 행동을하도록 노력할 수 있다는 것입니다. 그리고 더 중요한 행동은 AI (medecine, 자동차, 비행기, 폭탄을 말하지 않는)에 위임 될 위험이 높습니다. 다르게 말하면, 나는 AI 자체를 두려워하지 않지만 인간이 AI를 사용할 수있는 방식으로 두려워합니다.


3

가장 실제적인 (즉, 현재의 기존 AI와 관련된) 위험 중 하나는 두 가지 이유로 감독되지 않은 AI에 맹목적으로 의존하고 있다고 생각합니다.

1. AI 시스템이 저하 될 수 있습니다

AI 시스템의 물리적 오류는 물리적 시스템이 잘못된 값을 제공하기 시작하여 테스트되지 않은 영역에서 심각하게 잘못된 결과를 생성하기 시작할 수 있습니다. 이것은 때때로자가 테스트와 중복으로 사용되지만 때때로 인간의 감독이 필요합니다.

자체 학습 AI는 또한 소프트웨어의 약점을 가지고 있습니다. 체중 네트워크 또는 통계 표현은 하나의 잘못된 결과에 갇히는 로컬 최소 점에 접근 할 수 있습니다.

2. AI 시스템은 편향되어있다

이것은 다행스럽게도 자주 논의되지만 언급 할만한 가치가 있습니다. AI 시스템의 입력 분류는 종종 훈련 / 테스트 데이터 세트도 바이어스 되었기 때문에 바이어스됩니다. 이로 인해 AI가 특정 민족을 인식하지 못하는 경우가 더 분명해졌습니다. 그러나 AI가 특정 데이터를 인식하지 못하고 실수로 공장에서 화재를 일으키거나 장비를 부수거나 사람들을 다치게하는 등의 일부 나쁜 사고 후에 만 ​​발견 될 수있는 명백한 사례는 거의 없습니다.


이것은 좋은 현대 답변입니다. 신경망과 같은 "블랙 박스"AI는 절대적인 방식으로 테스트하기가 불가능하여 100 % 미만으로 예측 가능하고 100 % 미만으로 신뢰할 수 있습니다. 우리는 AI가 언제 주어진 문제에 대한 대안 전략을 개발할 것인지, 그리고이 대안 전략이 우리에게 어떤 영향을 줄지 알 수 없으며, 자동차 운전이나 자원 관리와 같은 중요한 작업에 AI에 의존하고 싶다면 정말 큰 문제입니다.
laancelot

1

로봇이 휴먼 머신 인터페이스와 유사하면 장치는 원격 제어 차량과 동일합니다. 조이스틱 뒤에있는 조작자와 논의하고 원하는 행동에 대해 협상 할 수 있습니다. 원격 제어 로봇은 자신의 행동을 인간에게 추적하고 동기를 기대할 수 있기 때문에 안전한 발명품입니다. 그들은 일상 생활을 향상시키는 데 사용될 수 있으며, 그들과 함께 노는 것은 재미 있습니다.

반대로 일부 로봇은 조이스틱으로 제어되지 않지만 내부 주사위 생성기와 함께 작동합니다. 주사위 장난감은 도박에서 사회적 역할로 알려져 있지만 신비한 의미가 있습니다. 일반적으로 무작위 발생기는 인간의 영향을 벗어난 어두운 힘에 의해 제어되는 혼란스러운 행동과 강하게 연결되어 있습니다. 로봇에 내장되어 있고 학습 알고리즘으로 개선 된 전자 주사위는 인간의 기계 인터페이스와 반대이지만 무작위로 제어되는 로봇은 예상 할 수없는 인간과 게임을하기 때문에 문제가 될 수 있습니다. 다음 주사위 수를 예측할 수 없으므로 로봇도 갑자기 동작합니다.

무작위로 통제되는 게임과 부정적인 사회적 영향 사이의 연결은 다음 문장에서 설명되었습니다.

인용 :“많은 전통적인 비 서구 사회에서 도박꾼들은 신들에게 성공을 위해기도하고 신의 뜻으로 승패를 설명 할 수 있습니다. “Binde, Per. "도박과 종교 : 콩코드와 갈등의 역사." 도박 문제 20 (2007) : 145-165.


1

인간은 현재 "생각하는 것"의 생태-경제적 틈새 시장에 존재합니다.

AI는 또한 생각하는 것이므로 우리의 생태 경제 틈새 시장에 침입 할 것입니다. 생태학과 경제학에서 틈새 시장을 점령하는 것은 지속적인 생존을위한 훌륭한 계획이 아닙니다.

이로 인해 인간의 생존이 정확히 손상되는 것은 꽤 혼란 스러울 것입니다. AI가 종으로서, 심지어 지배적 인 생활 형태로 인간의 생존을 위험에 빠뜨릴 수있는 여러 가지 그럴듯한 방법이있을 것입니다.


"슈퍼 윤리"가없고 인간보다 (제조하는 "신체"또는 세상을 조작하는 방법을 포함하여) 저렴하고 인간보다 똑똑하거나 똑똑한 강력한 인공 지능이 있다고 가정합니다.

우리가 자원을 위해 AI와 경쟁하기 시작하는 경우입니다. 그것은 미시 경제적 규모로 일어날 것입니다 (우리는이 문제를 해결하기 위해 인간을 고용하거나 AI를 구매 / 구축 / 임대 / 채용합니까?). AI가 사람들보다 저렴하고 똑똑해지는 속도에 따라, 이는 느리게 (한 번에 산업 일 수도 있음) 일어날 수 있습니다.

자본주의 경쟁에서, 더 저렴한 AI로 넘어 가지 않는 경쟁자들은 경쟁에서 벗어나게됩니다.

이제 단기적으로 AI의 장점이 미미할 경우 생산성을 높이기 전에 20 년 동안 인간을 교육하는 데 드는 높은 비용으로 인해이 과정이 느려질 수 있습니다. 이 경우 AI 대신 질병을 진단하기 위해 기아 임금보다 의사에게 지불하는 것이 가치가있을 수 있지만 학생 대출을 지불 할 가치는 없습니다. 그래서 새로운 인간 의사들은 훈련을 빨리 중단하고 기존 의사들은 빈곤 할 것입니다. 그런 다음 20-30 년이 넘는 AI는 진단 목적으로 의사를 완전히 대체 할 것입니다.

AI의 장점이 크면 빠를 것입니다. 의사는 인간 진단을 위해 빈곤 수준의 임금을 지불 할 가치조차 없습니다. 휘발유 농장이 이어질 때 근육 농장에서 일어나는 일을 볼 수 있습니다.

과거의 산업 혁명 동안, 인간이 생각할 수있는 곳에서 잉여 인간 노동자를 다른 행동으로 바꿀 수 있음을 의미합니다. 제조 라인, 서비스 경제 직업, 컴퓨터 프로그래밍 등. 그러나이 모델에서 AI는 그러한 종류의 직업을 가진 사람보다 훈련하고 구축하는 것이 저렴하고 똑똑하거나 똑똑합니다.

에탄올에 의해 유발되는 아랍의 봄에서 알 수 있듯이, 농작물과 경작지는 기계와 인간 모두에게 연료를 공급하는 데 사용될 수 있습니다. 농작물을 유용한 작업으로 전환하는 측면에서 기계가 더 효율적이면 식품 가격이 상승하기 시작합니다. 사람들은 실제로 굶어 죽기를 좋아하지 않으며, 이것을 막기 위해 정부를 전복시키기 위해 자신의 생명을 기꺼이 감수 할 것이기 때문에 이것은 일반적으로 폭동으로 이어집니다.

보조금 지원 식품 등을 제공하여 사람들에게 돈을 벌 수 있습니다. 이것이 경제적으로 치명적이지 않는 한 (즉, 충분히 비싸면이를 수행하지 않는 다른 장소로 인해 경쟁에서 벗어날 수 있음) 이것은 정치적으로 불안정합니다.

대안으로, 단기적으로, 점점 더 효율적인 AI 운영 경제로부터 이익을 받고있는 소유 카스트는 경찰이나 군사 카스트에게 그 폭동을 진압하기 위해 비용을 지불 할 수 있습니다. 이를 위해서는 지속적인 충성도를 보장하기 위해 경찰 / 군사 계급이 생활 수준에서 중상층에서 중상류층으로 올라 가야합니다.

AI를 도입 할 수있는 수익 센터 중 하나는 AI 기반 군사 및 정책입니다. 시각 및 기타 데이터 피드 처리를 기반으로 치명적이고 치명적이지 않은 병기를 제공하는 드론은 식품 가격 유발 폭동이나 기타 불안정성을 낮추는 데 필요한 중산층 경찰 / 군사 수를 줄일 수 있습니다. 우리가 이미 인공 지능이 생물학적 인 인간보다 더 싼 몸과 훈련을 가질 수 있다고 가정했듯이, 이것은 또한 당신이 지출 한 달러 당 배치 할 수있는 힘의 양을 증가시킬 수 있습니다.

이 시점에서 우리는 굶주린 사람들이 AI 실행 경제를 전복시키고 현재 사용되는보다 효율적인 사용으로 생산 수단을 압류하는 데 사용되는 AI 실행 경찰과 군대에 대해 이야기하고 있습니다.

정상에있는 시스템을 "소유"하는 흔적 인간은 그들의 부와 힘을 최적화하기 위해 지역적으로 합리적인 결정을 내립니다. 그들은 오래 지속될 수도 있고 지속되지 않을 수도 있습니다. 그들이 상대적으로 적은 양의 자원을 소모하고 AI 실행 경제를 망치지 않는 한, 그들을 제거해야 할 선택 압력이 많지 않을 것입니다. 다른 한편으로, 그들이 가치있는 것에 기여하지 않기 때문에, 그들은 "정상적인"입장은 정치적으로 불안정하다.

이 프로세스는 "강력한"일반 AI를 가정했습니다. 좁은 AI는 이것을 여러 조각으로 끌어낼 수 있습니다. 예를 들어, 저렴하고 효과적인 진단 컴퓨터는 대부분의 의사를 놀랍게도 짧은 시간 안에 빈곤으로 줄일 수 있습니다. 자가 운전 차량은 경제의 5 ~ 10 %를 삼킬 수 있습니다. 정보 기술은 이미 겸손한 AI로 소매 부문을 삼키고 있습니다.

모든 기술 발전은 인간을위한 점점 더 나은 일자리로 이어진다 고합니다. 그리고 이것은 지난 300 년 동안 사실이었습니다.

그러나 1900 년 이전에는 모든 기술 발전으로 말의 일자리가 점점 더 늘어났다는 것도 사실이었습니다. 그런 다음 ICE와 자동차가 도착했고 지금은 일하는 말이 훨씬 적습니다. 나머지 말들은 기본적으로 인간 개인 종들과 같습니다 : "와우, 시원하고 말"의 참신함과 거대한 동물을 타고 조종하는 재미를 유지합니다.


1

이미 제공된 많은 답변 외에도 이미지 모델 영역에서 적대적인 예의 문제를 제기합니다 .

적대적인 예는 사람 관찰자에게는 종종 눈에 띄지 않지만 특별히 모델의 예측을 크게 바꾸는 특별히 설계된 노이즈로 교란 된 이미지입니다.

예를 들면 다음과 같습니다.


0

실제 문제를 해결하는 데 사용되는 인공 지능은 인류에게 위험을 초래할 수 있고 정확하게 문장을 요구하지 않을 수 있으며, 이것은 어느 정도의 인간의 어리 석음도 필요합니다.

인간과 달리 인공 지능은 감정, 윤리 또는 탐욕의 제약없이 가장 논리적 인 답을 찾을 것입니다 ... 논리 만. 이 AI에 인류가 만든 문제 (예 : 기후 변화)를 해결하는 방법을 물어 보면 인류 전체를 제거하여 지구를 보호하는 것이 해결책 일 수 있습니다. 분명히 이것은 AI에게 AI의 결과에 따라 행동 할 수있는 능력을 요구할 것입니다.


0

인공 지능은 (인간의) 자연 지능의 어떤 방식 으로든 우리에게 해를 끼칠 수 있습니다. 자연과 인공 지능의 구별은 인간이 더 친밀하게 자신을 강화하기 시작할 때 사라질 것입니다. 지능은 더 이상 정체성을 특징 짓지 않을 것이며 무한한 소유가 될 것이다. 인간이 진화하는 자기 정체성을 보존하기 위해 견딜 수있는만큼의 피해가 초래 될 것입니다.


0

우리의 세계 경제가 AI로 간주되어야한다는 것을 아는 사람은 거의 없습니다.-돈 거래는 신경망을 통한 신호입니다. 신경망의 노드는 다른 회사 나 돈을 지불하거나받는 개인이 될 것입니다. -인공으로 제작 된 인공 제품

이 신경망은 인간보다 작업이 더 낫습니다. 자본주의는 항상 인간이 계획 한 경제 (계획-경제)에 대항하여 승리했습니다.

이 신경망은 위험한가요? 회사 폐기물로 오염 된 하천에서 어부와 대기업의 소득이 큰 경우에는 다를 수 있습니다.

이 AI는 어떻게 위험 해졌습니까? 인간의 탐욕 때문이라고 대답 할 수 있습니다. 우리의 창조물은 우리 자신을 반영합니다. 다시 말해, 우리는 신경망이 잘 동작하도록 훈련시키지 않았습니다. 우리는 모든 인간의 삶의 질을 향상시키기 위해 신경망을 훈련시키는 대신에, 풍부한 Fokes를 더욱 부유하게 만들기 위해 그것을 훈련 시켰습니다.

더 이상 위험하지 않도록이 AI를 훈련시키는 것이 쉬울까요? 아마 아닐 수도 있고, 인공 지능이 생명보다 클 수도 있습니다. 그것은 가장 적합한 생존입니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.