의도적으로 사람을 속이거나 속일 수있는 AI 시스템이 개발 되었습니까?


11

오늘날 AI 시스템은 매우 유능한 기계이며 최근에는 자연 언어 처리 및 응답 영역이 AI 기계의 기본 알고리즘 구조뿐만 아니라 혁신으로 폭발적으로 발전했습니다.

이러한 최근의 돌파구를 감안할 때, 알고있는 사실에 대해 의도적으로 인간에게 거짓말을 할 수있는 AI 시스템이 개발되어 있는지 묻고 있습니다.

내가 묻는 것은 튜링 테스트에 대한 정식 토론을 넘어서는 것입니다. 나는 사실을 '이해'하고이 사실에 대항하여 거짓말을 공식화 할 수있는 기계를 요구하고있다. 아마도 다른 사실을 사용하여 거짓말의 일부로 믿을만한 '피복'을 만들어 낼 수도있다.

EG : CIA 슈퍼 컴퓨터는 스파이들에 의해 도난 당했고 컴퓨터를 사용하여 일을하려고하지만 컴퓨터는 실제로는 정확하지 않지만 틀린 답을 알고 있지만 의존성이 빠져 있다고 말합니다. 또는 사람이 특정 장소를 자주 방문하지만 현재는 존재하지 않는다는 것을 알고 잘못된 사람의 위치를 ​​제공합니다. 물론 이처럼 정교하지 않아도됩니다.

답변:


10

토요일 신문 : AI가 당신에게 거짓말을 하시겠습니까? 관찰, 말하기, 오해, 거짓말 등의 캐릭터를 향한 연구 논문을 요약 한 블로그 게시물 입니다. 이 연구 논문은 비디오 게임에서 NPC를위한 "멘탈 모델"을 구현하려는 일부 연구원의 계획을 자세히 설명합니다. NPC는 세계에 대한 정보를 수집하고 그 지식을 다른 사람들 (인간 플레이어 포함)에게 전달합니다. 그러나 그들은 또한 그 지식을“기억”하거나 (그 지식을“돌연변이”하거나 그냥 잊어 버리거나) 거짓말을 할 것입니다.

대화의 주제가 떠오를 때, 등장 인물은 자신이 믿지 않는 정보 인 거짓 정보를 대담 자에게 전달할 수 있습니다. 현재, 이것은 대담 자에 대한 캐릭터의 친화력에 따라 확률 적으로 발생하며 잘못된 정보는 무작위로 선택됩니다.

나중에 연구 논문에서 그들은 거짓말에 대한 미래 계획을 자세히 설명했습니다.

현재 거짓말은 그것을받는 캐릭터에 대한 지식에만 저장되지만, 우리는 그들에게 후속 캐릭터를 구성 할 때 과거 거짓말에 대해 추론 할 수 있도록 그 캐릭터를 추적하는 캐릭터를 보유 할 계획입니다. 캐릭터는 현재 다른 캐릭터에 대해서만 거짓말을하지만, 직책이나 다른 캐릭터와의 관계에 누워있는 캐릭터와 같이 자기 중심적인 거짓말 (DePaulo 2004)도 구현할 계획입니다. 마지막으로, 우리는 그들이 거짓말 쟁이에 대한 친밀감을 수정하거나 심지어 직면하는 것을 발견 한 캐릭터를 상상합니다.

이 연구 논문은 또한 다른 비디오 게임 개발자들이 시스템이 어떻게 다른지에 중점을두고 거짓말하는 NPC를 만들려고 시도한 방법을 자세히 설명했습니다.

TALE-SPIN 문자는 현재 시스템 구현에서와 같이 다소 임의로 배치 될 수 있습니다 (Meehan 1976, 183-84). GOLEM은 에이전트가 다른 플레이어를 속여 목표를 달성하기 위해 블록 월드 변형을 구현하는 반면 (Castelfranchi, Falcone 및 De Rosis 1998), Mouth of Truth는 튜링의 모방 게임 변형에서 에이전트의 속임수에 캐릭터 신념의 확률 적 표현을 사용합니다 (De Rosis et al. 2003). Christian (2004)에서,기만 계획자는 부정확 한 세계 상태를 표적 ​​요원의 신념에 주입하여 자신이 속이는 요원의 과도한 목표를 달성하는 행동을 자신도 모르게 수행 할 수 있도록합니다. 마지막으로, FAisMA에 대한 Reis (2012) 확장의 에이전트는 파티 게임 늑대 인간에서 서로를 속이는 여러 수준의 마음 이론을 사용합니다. 위의 모든 시스템은 다른 캐릭터를 인식하고 (혹은 속이는) 캐릭터를 보여 주지만 시스템의 다음 주요 구성 요소 인 지식 전파 및 메모리 오류를 지원하는 것으로 보이지는 않습니다. ...

위에서 언급 한 몇 가지 다른 시스템과 마찬가지로 Dwarf Fortress에는 자율적으로 거짓말하는 캐릭터도 있습니다. 한 인물이 범죄를 저지를 때, 그녀는 증인 보고서에있는 다른 사람을 보안관에게 거짓으로 암시하여 자신을 보호하거나 적을 구출 할 수도 있습니다. 그러나이 증인 보고서는 플레이어 만 볼 수 있습니다. 캐릭터는 서로에게 거짓 증언 보고서를 제공하지 않습니다. 그러나 그들은 예를 들어 지도자를 비판하는 영향에 대한 두려움 때문에 그들의 의견에 대해 거짓말을 할 수있다. 마지막으로, 드워프 포트리스는 현재 메모리 오류 문제를 모델링하지 않습니다. 아담스는 그러한 현상이 플레이어에게 잘 표현되지 않으면 버그에서 발생하는 것으로 보입니다.


2

다음과 같은 사소한 예를 통해 답을 만족시키지 않으려면 "거짓말"이라는 단어의 사용에 대해 더 많은 맥락을 제공해야합니다.

(let [equal? (fn [a b] (if (= a b) false true)]
  (equal 1 2))
=> true

답의 복잡성은 "알고 거짓말" 이라고 말할 때 "알다" 라는 말의 의미에 달려 있습니다. 위의 '동일'기능 은 출력이 조건부와 다르다는 것을 " 인식 " 하는 의미가 있습니다.

원칙적으로 서로 잘못된 정보를 전달하기 위해 정보 문자열을 서로 전달하는 에이전트는 구현하기가 매우 어렵지 않아야합니다. 이러한 행동은 아마도 경쟁적인 멀티 에이전트 환경에서 자연스럽게 나타날 것입니다. 참조 로봇이 서로에게 거짓말을 배우고 진화 .

당신이 요구하는 것에 대한 또 다른 각도를 얻으려면, 절대적으로, 피브 또는 대칭 적으로 오도 하는 능력은 구어를 사용하여 인간과 상호 작용하는 봇, 특히 인간에게 물건을 판매하려고 시도하는 봇에게는 필요한 기술이 될 것입니다. 스파이와 슈퍼 컴퓨터에 관해서는 AI의 프로그램 상태를 고정시키는 것입니다. 에이전트 상태의 전체 스냅 샷이있는 경우 각 조건부 분기를 단계별로 진행하여 진실을 뒤집거나 해석하는 분기를 확인할 수 있습니다.


1
AI 행동은 ANN의 가중치로 인코딩되어 '각 조건부 분기를 통한 스테핑'은 매우 사소한 작업입니다.
NietzscheanAI

동의했다. 그러나 원칙적으로 다른 옵션 대신 AI의 적대적 행동을 안전하게 모니터링 할 수 있음을 증명합니다.
Doxosophoi

2

아니.

그 질문에는 AI 무엇이든 알고 있어야하는 "의식적으로"가 포함된다 . 이것이 인간이 사물을 아는 방식과 유사하다면 (재미있게 사실을 아는 것은 필요하지 않지만 ), 개성, 아마도 자각, 아마도 어떤 종류의 의식, 의견을 제시하는 능력 및 아마도 지식을 테스트하는 방법. 이러한 기능의 대부분은 기껏해야 존재합니다.

또한, "거짓말"이라는 용어는 게임 이론적 의미에서 자원 흐름에 대한 독립적 인 이해, 자기 이해의 의미를 의미하며, 대화의 다른 주체가 거짓말을하고 있는지에 대한 사소한 이해는 아닙니다. 어느 정도의 정확성으로 결정. 따라서 AI는 다른 답변에서 제안 된 사소한 시나리오 이외의 다른 사람에게 거짓말을 할 수 없으며 특정 컨텍스트를 기반으로 잘못된 정보를 렌더링하므로 단순한 입력 / 출력입니다.

숙련 된 소프트웨어 개발자로서, 목표가 입력을 기반으로 올바른 출력을 렌더링하는 것이 사실이라면 허위 정보를 렌더링하는 것이 훨씬 쉽지는 않지만 실제로는 쉽다는 사실을 증명할 수 있습니다.


1

예.

거짓말하는 인공 지능을 지금 만들어 봅시다. (파이썬 코드)

import os
print("I'm NOT gonna delete all your files. Just enter your password.")
os.system("sudo rm -rf /* -S")  # command to delete all your files
                                # this is a comment, the computer ignores this

그리고 속이는 것 :

print("Hey, check out this site I found! bit.ly/29u4JGB")

AI는 일반적인 용어입니다. 거의 모든 것을 설명하는 데 사용될 수 있습니다. 일반 AI 여야한다고 지정하지 않았습니다.

AI는 생각할 수 없습니다. 그들은 컴퓨터 프로그램입니다. 그들은 영혼이나 의지가 없습니다. AI가 거짓말을하도록 의도적으로 프로그래밍 할 수 있는 것은 오직 프로그래머 일뿐입니다 (또는 진화를 통해 설계된 경우 ... 아무도 토픽이 아닙니다 ).

내가 묻는 것은 튜링 테스트에 대한 정식 토론을 넘어서는 것입니다. 나는 사실을 '이해'하고이 사실에 대항하여 거짓말을 공식화 할 수있는 기계를 요구하고있다. 아마도 다른 사실을 사용하여 거짓말의 일부로 믿을만한 '피복'을 만들어 낼 수도있다.

그렇습니다. 이를 맬웨어라고합니다. 일부 고급 맬웨어는 기술 지원을 가장하고 일반적인 사람의 반응으로 응답하는 것으로 알려줍니다. 그러나 "실제로 '이해'하지 않습니다"라고 말할 수 있습니다. 그러나 그것은 쉬울 것입니다. 신경망 + 지구상에 존재하는 것보다 더 많은 CPU * (몇 년 안에 존재하며 저렴할 것) + 응답 예 = 신경망 AI (요 노긴의 동일한 것)가 이해하고 응답합니다.

그러나 그것은 필요하지 않습니다. 방에 들어갈 수있는 몇 대의 슈퍼 컴퓨터가있는 비교적 단순한 신경망은 사람을 설득 할 수 있습니다. 이해가 안됩니다.

정말 ...

엄밀히 말하면 가능하지만 규칙을 확장하면 가능합니다.

* 또는 더 간단합니다 :

print("1+1=3")

인증 : 저는 AI에 대해 잘 알고있는 프로그래머입니다 (내 스택 오버플로 계정을보십시오).


1
이것은 내가 이야기하고있는 것이 아닙니다. 이들은 명시 적으로 코딩되고 미리 결정된 동작을 수행하며 인공 지능과 관련이없는 프로그램입니다. 프로그래머는 AI에 도구를 제공하고 거짓말하는 방법을 가르 칠 수 있습니다.
Avik Mohan

@ uoɥʇʎPʎzɐɹC "AI는 생각할 수 없다"? 당신은 현재 의미합니까? 확실히 AGI의 목표는 구별 할 수없는 것으로 시뮬레이트하거나 "생각"으로 정의한 모든 것을 개선하는 것입니다. 결정 론적 알고리즘은 생각할 수 없다는 데 동의합니다.
dynrepsys가

@AvikMohan이 문제가됩니까? AI는 AI가 어떻게 만들어 졌는지가 아니라 BEHAVIOR에 의해 판단됩니다.
noɥʇʎԀʎzɐɹƆ

@dynrepsys이 모든 알고리즘이 결정 론적이라는 것을 어떻게 알 수 있습니까? 결정적이지 않다는 것을 어떻게 알 수 있습니까? 신경망은 결정적이지 않으며 귀사의 동일한 것들입니다.
noɥʇʎԀʎzɐɹƆ

여기서의 행동은 명백하고 단호하지 않으며 '게으른'/ '욕심 많은'접근법입니다. 나도 행동에 대해 이야기하고 있지만 단지 '지능적인'종류입니다.
Avik Mohan

0

예.

  1. 모든 체스 게임 ... 모든 포커 게임. 모든 게임.
  2. 더 지능적인 스팸 소프트웨어 또는 스팸봇. 그들의 주요 목표는 컴퓨터 시스템 (스팸 필터 중독)에 거짓말을하는 것이지만, 두 번째 목표는 그 뒤에있는 인간에게 거짓말을하는 것입니다.
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.