신경망은 치명적인 잊어 경향이 있습니까?


37

신경망에 사자 그림을 100 번 보여주고 "위험한"레이블을 붙여서 사자가 위험하다는 것을 알게된다고 상상해보십시오.

이제 이전에 수백만 마리의 사자 이미지를 보여 주었고 다른 대안으로 "위험"및 "위험하지 않음"으로 표시하여 사자가 위험 할 확률이 50 %라고 상상해보십시오.

그러나 지난 100 번의 시간은 신경 네트워크가 사자를 "위험한"것으로 간주하는 것에 대해 매우 긍정적으로 만들었습니다.

따라서 신경망에는 최근의 증거에 따라 너무 빨리 마음을 바꿀 수 있다는 결함이있는 것 같습니다. 특히 이전의 증거가 중간에 있었다면.

얼마나 많은 증거가 있는지 추적하는 신경망 모델이 있습니까? (또는이에 의해 학습 속도 감소시키는에 해당 될 시험의 수입니다?)1/TT


나는 사용자가 NN에게 사자가 위험하다고 말하는 곳에서 감독 학습에 대해 이야기하고 있습니다.
zooby

이런 종류의 사람들도 마찬가지입니다. AI로 묘사 한 시나리오와 거의 같은 결과없이 무언가를 여러 번 수행 한 후에 위험한 일을 "학습"하는 것이 얼마나 쉬운 지 정말 무섭습니다.
Tomáš Zato

2
너무 광범위하다고 표시되었습니다. 이것은 네트워크에서 사용하는 인식 기술에 너무 의존적입니다. 분명히 어떤 경우에는 네트워크가 "잊어 버릴 것"이지만 다른 경우에는 그렇지 않을 것입니다. 이 질문에 대한 답은 "그것은 달려있다"로 시작하고 끝나야한다는 것이 분명해야합니다.
양성자

3
공정하게, 이것은 "독약을 고르십시오"유형 거래 중 하나입니다. 역사적 경험보다 최근 경험을 선호하는 NN은 과거를 무시하는 경향이 있지만 최근의 발전에 반응 할 수 있습니다. 예를 들어, 모든 라이온들이 갑자기 밤새 살인범을 돌린다 고 가정하면, 과거에 사자가 항상 위험한 것은 아니었던 느린 NN과는 달리 최근 경험을 선호하는 NN이 새로운 위협을 포착하는 데 훨씬 빠릅니다. 사자 (나중에 많은 인간의 죽음) 당신이 좋아하는 것보다 이상 100 % 위험 할 때까지 아무 것도 새로운 "발생하지 않습니다 결론
Flater

1
또한 AGI는 관련 오류 가중치를 갖습니다. 두 오류가 결과적으로 똑같이 나쁘지는 않습니다.
MSalters

답변:


38

실제로, 신경망은 치명적인 망각 (또는 간섭)을 일으키는 경향이 있습니다. 현재이 문제는 신경망이 주로 오프라인으로 훈련되기 때문에 (때때로 배치 훈련 이라고도 함 )이 문제가 자주 발생하지 않고 온라인 또는 점진적으로 진행 되지 않기 때문에 무시되는 경우가 많습니다 . 이는 인공 일반 지능 개발의 기본 입니다.

신경망 에서 연속적인 평생 학습 에 종사하는 사람들이 있는데 , 이는 신경망 을 연속적인 평생 학습 에 적용하려고 시도합니다.이 모델은 데이터 스트림에서 지속적으로 학습하여 모델이 이전에 획득 한 것을 완전히 잊어 버리지 않는 능력입니다 새로운 정보를 배우면서 지식. 예를 들어 신경망을 이용한 평생 평생 학습 : 검토 (2019), 독일 I. Parisi, Ronald Kemker, Jose L. Part, Christopher Kanan, Stefan Wermter의 논문을 참조하십시오. 신경 네트워크를 잊어 버렸습니다.


1
감사! 당신이 제안한 논문을 읽겠습니다.
동물원 :

7
마이크로 소프트의 "테이 (Tay)"챗봇의 악명 높은 부패가 치명적인 망각의 예 일까?
아니오 U

4
@ TKK 나는 이것이 웹 사이트에서 좋은 새로운 질문이라고 생각합니다!
nbro

2
@TKK 질문 하시겠습니까? 그렇지 않다면 다른 사람이 그렇게 할 수 있습니까? 나는 정말로 답을 알고 싶다.
wizzwizz4

2
"뉴럴 네트워크에는 지속적인 평생 학습을 위해 일하는 사람들이 있는데, 이는 뉴런 네트워크를 지속적인 평생 학습에 적응시키려는 시도가 있습니다"라는 문구가 신경망에 의해 작성되었다고 확신합니다.
Moyli

14

예, 오래된 훈련 사례 를 잊어 버리는 문제 는 신경망의 특징입니다. "적응성"이라고 부르지는 않을 것입니다. 왜냐하면 그들이 적응성을 높이고 이전 학습과 같은 흥미로운 응용 프로그램을 허용하기 때문입니다.

실제로 당신이하고 싶은 것은 시작과 끝에 하나의 카테고리가 보이지 않도록 위험 하고 위험하지 않은 훈련 예제를 혼합 하는 것입니다.

표준 교육 절차는 다음과 같습니다.

for e in epochs:
    shuffle dataset
    for x_batch, y_batch in dataset:
        train neural_network on x_batxh, y_batch

모든 시대에서 셔플은 네트워크가 모든 시대에서 동일한 순서로 동일한 교육 예제를 보지 못하고 클래스가 혼합됨을 보장합니다.

이제 귀하의 질문에 대답하기 위해 학습 속도를 낮추면 네트워크 가 이전 교육 을 잊어 버리는 경향 이 줄어들지 만 온라인이 아닌 환경에서 어떻게 작동합니까? 네트워크가 수렴하기 위해서는 여러 번의 교육이 필요합니다 (즉, 데이터 세트의 각 샘플을 여러 번 보는 것).


4

당신이 설명하는 것은 고의적 인 미세 조정 사례 일 수 있습니다 .

학습 문제에 미니 배치 그라디언트 디센트 작업을 수행 하는 기본 가정이 있습니다. 연속 배치의 배치 또는 시간 창은 실제 글로벌에 대한 적절한 근사치를 형성한다고 가정합니다.모델의 매개 변수화와 관련하여 오류 함수의 기울기. 오차 표면 자체가 큰 방식으로 움직이면 그래디언트 디센트의 목적을 방해 할 수 있습니다. 그래디언트 디센트는 로컬 리파인먼트 알고리즘이기 때문에 기본 배분을 갑자기 변경하면 모든 베팅이 해제됩니다. 인용 한 예에서 치명적인 잊어 버림은 이전에 "잊어 버린"데이터 포인트를 가진 후유증 인 것처럼 보이며 분포가 변경되었거나 일부 중요한 현상의 데이터에서 과소 평가 된 증상입니다. 그 중요성과 관련하여 거의 보이지 않습니다.

강화 학습의 경험 재생은이 영역으로 잘 전달되는 관련 개념입니다. 다음은 치명적인 망각과 관련하여이 개념을 탐구 하는 논문 입니다. 샘플링이 실제 그래디언트를 충분히 잘 나타내고 (이에 대한 트레이닝 샘플 밸런싱 을 살펴보십시오 ) 모델에 충분한 매개 변수가있는 한 치명적인 망각 문제는 거의 발생하지 않습니다. 대체로 무작위 섞인 데이터 세트에서 특정 클래스의 데이터 포인트가 너무 드물기 때문에 훈련 중에 오랫동안 포함되지 않을 가능성이 가장 높으며, 일치하는 샘플이 나올 때까지 모델을 다른 문제로 효과적으로 미세 조정 다시 볼 수 있습니다.


1

귀하의 질문에 대답하기 위해 말하고 싶습니다 : 아마도 이론상이지만 실제로는 아닙니다.


문제는 연대순 / 순차적 훈련 고려 한다는 것 입니다.

번만 온라인 교육 또는 온라인 기계 학습 이라는 순차적 교육 방법을 사용했습니다 . 그것은 woppal wabbit 라이브러리를 사용하고 있었습니다 . 이 라이브러리는 공급되는 입력에 시간순으로 적응 하는 기능입니다 (고려한 문제는 아님).

나는 그 라이브러리 Woppal Wabbit의 경우, 시간순으로 적응하는 기능 이라고 주장한다 . 당신이 그에게 사자가 위험하다고 말하기 시작하면 결과적으로 적응하기를 원합니다.


그러나 코스 연습에서 경쟁에 이르기까지 다른 모든 경우에는 입력 데이터의 무작위 하위 집합을 훈련 세트로 사용했습니다. 그리고 이것은 정말 중요합니다 :

기계 학습의 중요한 부분 인 Cross Validation 입니다. 훈련 된 신경망이 실제로 얼마나 좋은지를 추정하는 방법입니다.

신경망의 유효성을 제대로 평가하려면 훈련 데이터 의 임의의 하위 집합 을 취해야합니다 . 간단히 말해서 훈련에 대한 데이터의 80 %를 가져오고 나머지 20 %는 훈련 된 신경망은 좋은 예측을 제공합니다.

또한 과적 합 (또 다른 우려 사항)을 감지해야하기 때문에 교차 검증 없이는 쉽게 벗어날 수 없습니다.

가능한 이론적 문제처럼 보일지 모르지만 현재의 교차 유효성 검사 방법 사용은 관심사를 관련성이 없게 만드는 경향이 있습니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.