윤리가 현재 AI 시스템에 더 통합되지 않는 이유는 무엇입니까?


9

저는 컴퓨터 공학 박사 과정을 밟고 있으며 현재 기계 윤리 (철학과 AI를 결합한 학문 분야, 명시 적 윤리 프로그램 또는 상담원을 만드는 분야)에서 수행되는 응용 프로그램에서 최첨단 개요를 만들고 있습니다. 이 분야에는 기술적 인 배경을 가진 많은 사람들이 있지만,이 분야는 대부분 이론적 논증을 포함하고 있으며 구현이 상대적으로 적습니다.

나는 윤리가 관련되어 있기 때문에 근거가 없으며 철학의 일부이기 때문에 어떤 유형의 윤리가 이행되어야하며 이것이 어떻게 최선을 다할 수 있는지 논쟁 할 때 길을 잃을 수 있음을 이해합니다. 그러나 컴퓨터 과학에서는 접근 방식의 가능성이나 한계를 보여주기 위해 간단한 구현을 시도하는 것이 일반적입니다.

AI에서 윤리를 명시 적으로 구현하고 실험하는 데 거의 도움이되지 않는 이유는 무엇입니까?


2
접근 방식의 예에서 찾아 볼 수있다 개요 종이.
수잔

답변:


2

이것은 반드시 높은 수준의 대답이며 투기 적이지만이 질문에 대해 생각 해 왔으며 여기에 내 생각이 있습니다.

  • 컴퓨터가 차이 엔진이기 때문에 윤리 알고리즘을 구현하려면 철학에 대한 수학적 기초가 필요합니다

Russell & Whitehead의 유명한 실패와 Gödel의 불완전 성 정리 후에는 문제가 될 것 같습니다.

  • 인공 지능은 특히 딥 러닝의 지속적인 검증에 따라 고도로 적용되는 분야이며, 윤리 강령을 강요받지 않는 한 기업은 없습니다.

따라서 엔지니어는 문제를 극복하기위한 선택의 여지가 없기 때문에 자율 주행 자동차에서 볼 수 있습니다. 반면, 파레토의 효율성 이 높은 알고리즘 기반의 주식 거래 회사 는 금융 투기의 윤리적 또는 사회적 영향에 대해 걱정할 것이라고 생각하지 않습니다 . ( "플래시 충돌"솔루션은 고주파 알고리즘 거래의 사회적 가치를 다루는 대신 일시적인 거래 중단을위한 규칙 인 것으로 보입니다.)보다 명백한 예는 극단적 인 양의 정보 남용 (불일치)을 무시하는 소셜 미디어 회사입니다. 정보 오용에 의해 생성 된 활동이 수익에 긍정적 인 영향을 미친다는 점에서 의심되는 무지에 대해 자신의 사이트에 게시하는 잘못된 정보.

  • 응용 분야는 주로 이익에 의해 주도되는 경향이 있습니다

기업의 기본 지침은 투자자에게 이익을 돌려주는 것입니다. 벌금과 위약금이 불법 행위로 인한 이익보다 적을 것으로 예상 될 때 기업이 법을 어기는 것은 드문 일이 아닙니다. (비즈니스에는 윤리라는 개념이 있지만 일반적으로 문화는 수단에 상관없이 사람들이 얼마나 많은 돈을 버는 지에 따라 사람들과 회사를 판단하는 것 같습니다.)

  • 기계 윤리의 구현은 제품을 판매하는 데 필요한 영역에서 탐색되고 있지만 다른 곳에서는 여전히 가상적입니다.

슈퍼 인텔리전스가 진화하고 인류를 없애면 (우수한 수학 기술을 가진 매우 똑똑한 사람들이 우리에게 경고하는 것처럼) 내 감정은 그것이 자연의 기능이 될 것입니다.이 알고리즘의 무제한 진화는 하이퍼에 중점을 둔 경제 동인 때문 금융 투기 및 자치 전쟁과 같은 산업 분야의 당파 자치구. 기본적으로 영향에 관계없이 모든 비용으로 이익을 쫓는 것.


재미있는 테이크, 이익 측면! 내가 연구 이유에 너무 집중 한 이후로 그런 생각을하지는 않았지만, 더 나아가 연구를 추구해야한다는 산업계의 압력이 없다는 것이 합리적입니다.
수잔

@SuzanneTolmeijer 감사합니다. 저는 몇 년 동안 게임 이론이 윤리와 어떻게 연결되는지에 대해 탐구 해 왔습니다. (예를 들어, "균형"이 "양호"라고 말한 초기 철학은 균형은 균형 함수이며 정확하게 수학적으로 정의 될 수 있습니다. 일반적으로 안정성이 최적 인 것으로 이해되는 경제학과 관련이 있습니다. 불안정성은 잠재적으로 치명적일 수 있습니다.) 그러나 저는이 분야의 경제 동인에 대해 언급 한 유일한 AI 기고가가 아니며, 내가 "과도한 AI"라는 용어의 잠재적 위험이 아닙니다.
DukeZhou

1

AI / ML 기술의 윤리적 구현 방식이 매우 적은 이유에 대한 문제의 일부는 이론적 프레임 워크가 필요하거나 적절하게 적용되지 않기 때문입니다.

이것은 의미있는 방식으로 상호 작용할 수없는 알고리즘과 모델에 이러한 이해를 적용 할 수있는 실질적인 방법이 없다는 것을 의미합니다. AI 안전 / 윤리에 대한 이론적 프레임 워크는 매우 중요합니다. 강력한 AI를 구현 하기 전에 안전한 지침을 마련해야합니다 .

매우 중점을 둔 일부 논문은 윤리적 / 안전한 AI 시스템 생성 문제를 좁히기 시작했습니다. 보다AI 안전의 구체적인 문제


명시 적 윤리가 필요한 것 같습니다. 최소한 많은 연구원들이 명시 적 윤리의 발전을 요구합니다 (예 : Moor 2006 ). 이론적 프레임 워크의 적절한 적용 측면에서 옳을 수 있습니다. 구현은 경우에 따라 약간의 해석을 암시하며, 이는 어려울 수 있습니다. 그러나 AI에 대한 안전한 가이드 라인이 중요하다는 데 동의합니다. 즉, 머신이 '올바른'또는 '윤리적 인'것으로 간주하는 것에 대한 실제 가이드 라인을 의미합니다. 이 지침은 어떤 방식으로 기계에서 윤리를 구현하는 방법을 암시합니다.
수잔

1

모방 방법을 사용하면 가장 적합한 행동을 인공 지능에 통합 할 수 있습니다. 윤리적 지위가 바뀔 때 인공 지능을 재구성 할 수 있습니다. 이념적 목적으로 사용되거나 정보를 수집하는 데 사용됩니다. 로봇이 무엇인지 명확하지 않습니다.


1

우리는 오류 모델을 회계사로 받아 들일 수 있습니다. 신경망 하에서의 성능 사이의 편향과 분산을 인식하는 것이 첫 번째 단계가 될 수 있습니다. 그런 다음 이러한 성능이 허용되는지 여부를 논의 할 수 있습니다. 우리가 아는 한, 민족을 실천하기 위해서는 경험과 현장 학습이 필요합니다. 우리는 단순히 학습 된 기계의 동작이 잘못되었는지 여부를 결정하기 위해 이론적 근거와 논문 수필을 취할 수 없습니다. 사고, 오류 또는 개발자가 만든 버그로 더 나눌 수 있습니다.


여기서 흥미로운 점은 기본적으로 시스템을 테스트하는 데 사용할 수있는 측정법이며 시스템이 정확하게 수행되고 있는지 어떻게 확인합니까? 이것은 현장에서 누락 된 부분이며 실제로 문제의 일부라고 생각합니다. 사실없이 시스템을 테스트하는 방법은 무엇입니까? 명시 적 윤리 알고리즘의 맥락에서 어떤 (차원) 측정이 의미가 있습니까? 그렇지 않으면 시스템을 비교할 방법이 없으므로 현장에서의 진행이 제한됩니다.
수잔

1

직관적으로 말하면 AI 윤리 구현에 대한 연구가 거의없는 것처럼 보입니다.

  1. 사회는 전체적으로 현재의 기계 지능 상태가 그것이 의식적이거나 지각적인 것으로 간주되기에 충분히 강하지 않다는 것에 편안하게 동의하는 것으로 보인다. 따라서 윤리적 권리를 부여 할 필요는 없습니다 (아직).

  2. 프로그램에 윤리적 행동을 구현하려면 컴퓨터가 "의미"를 해석 할 수있는 방법이 필요하지만, 아직 방법을 모릅니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.