AI는 어떻게 언어를 배우나요?


11

AI가 언어를 가르 칠 수있는 방법을 생각할 수 없다는 것을 깨달았을 때 AI와 그 작동 방식에 대해 생각했습니다. 어린이는 언어와 그림을 대상과 연관시켜 언어를 배우는 경향이 있습니다 (예 : 개 주변에있는 동안 "개"라는 단어를 말하는 사람들은 나중에 사람들이 "개"와 "차"라고 말하고 " "등을 의미합니다.) 그러나 텍스트 기반 AI는 어떠한 입력 장치에도 액세스 할 수 없으므로이 방법을 사용하여 학습 할 수 없습니다.

내가 생각 해낼 수있는 유일한 방법은 모든 단어로 프로그래밍하는 것이지만, 규칙적으로 영어 (또는 '말하기'로되어있는 언어)로 프로그래밍하는 것이지만, 아마도 몇 년이 걸릴 수 있습니다.

이 작업을 수행하는 방법에 대한 아이디어가 있습니까? 또는 이미 완료된 경우 어떻게됩니까?

그건 그렇고, 나는이 맥락에서 AI를 사용하여 인간에 가까운 지능이 있고 인공 언어에 대한 사전 지식이없는 인공 지능 시스템을 의미합니다.

답변:


12

일반적인 연구 영역은 문법 유도 로 알려져 있습니다 .

입력은 원시 텍스트로 표시되고 원하는 출력은 해당 구문 분석 트리 와 함께 일반적으로 감독 학습 문제로 구성됩니다 . 훈련 세트는 종종 긍정적 인 예와 부정적인 예로 구성됩니다.

이를 달성하기위한 최상의 방법은 없지만 현재까지 사용 된 기술 중 일부는 다음과 같습니다.


6

문제의 포괄적 인 용어를 자연어 처리 (NLP) 라고하며 인공 지능의 주제입니다.

언어 시맨틱, 문법 분석, 음성 태깅 부분, 도메인 특정 상황 분석 등을 포함하여이 분야에 대한 많은 하위 주제가 있습니다.


5

완벽을 기하기 위해 반복적 인 신경망 (즉, 역방향 연결이있는 신경망)은 자연어 처리 (NLP)에 자주 사용됩니다. 여기에는 Bidirectional, Jordan 및 Elman Networks와 같은 변형이 포함됩니다. LSTM (Long Short-Term Memory)은 시간과 시퀀스 기반 작업을 동일하게 수행 할 수 있지만 "배니싱 그라디언트 문제"가 발생하지 않기 때문에 backprop와 같은 표준 학습 방법을 활용할 수있는보다 정교한 신경망 알고리즘입니다. LSTM은 "완벽한 적분기"로 훌륭하게 설계 되었기 때문에 오랜 시간 동안 오류 기울기 등을 훨씬 쉽게 계산할 수 있습니다. 대조적으로 RNN을 사용한 학습은 여전히 ​​이론적으로 잘 정립되어 있지 않으며 BPTT (Backpropagation Through Time)와 같은 기존 방법으로는 계산하기가 어렵습니다. TDNN (Time Delay Neural Networks)에서는 시간이나 훈련 순서에 따라 새로운 뉴런과 각 새로운 훈련 예제와의 연결을 추가하는 아이디어입니다. 불행히도 이것은 RNN과 마찬가지로 네트워크 크기가 떨어지거나 잊어 버리기 전에 얼마나 많은 예제를 인터넷에 공급할 수 있는지에 대한 실질적인 제한을가합니다. LSTM은 NLP 목적으로 신경망을 사용하고 싶다고 가정 할 때 훨씬 긴 메모리 (특히 신경 튜링 머신으로 보강 된 경우)를 가지고 있습니다. 주제에 대한 나의 지식은 제한적이지만 (나는 여전히 로프를 배우려고 노력하고 있습니다.) 내가 간과하는 다른 중요한 신경망 알고리즘이있을 수 있습니다 ...

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.