DeepMind의 DQN Atari 게임은 동시에 학습 되었습니까?


9

DeepMind는 그들의 Deep Q-network (DQN)가 49 개의 Atari 게임을 배우면서 행동을 지속적으로 조정할 수 있었다고 말합니다.

동일한 신경망을 가진 모든 게임을 학습 한 후, 에이전트는 '슈퍼 휴먼'레벨에서 동시에 게임을 할 수 있었습니까 (게임 중 하나가 무작위로 제시 될 때마다) 재 학습이 필요 했습니까?


"같은 신경망으로 모든 게임을 배운 후". 이것은 동일한 NN 아키텍처 또는 동일한 아키텍처 및 단일 가중치 집합을 의미합니까?
Ankur

@Ankur는 실제로 확실하지 않습니다-그들이 동일한 아키텍처를 사용하고 게임 사이의 가중치를 재설정하지 않았다는 것은 나의 (제한적) 이해입니다.
Dion

답변:


2

전환하려면 재 학습이 필요했습니다.

또한 다음 사항에 유의하십시오 .

우리는 7 개의 모든 게임에서 동일한 네트워크 아키텍처, 학습 알고리즘 및 하이퍼 파라미터 설정을 사용하여 게임 별 정보를 통합하지 않고도 다양한 게임에서 작업 할 수있을 정도로 강력하다는 것을 보여줍니다. 실제 게임과 수정되지 않은 게임에서 에이전트를 평가하는 동안 훈련 중에 만 게임의 보상 구조를 한 번 변경했습니다.

네트워크는 우리가 시도한 7 개의 게임 중 6 개에서 이전의 모든 RL 알고리즘을 능가했으며 그 중 3 개에서 전문적인 인간 플레이어를 능가했습니다.


1

전환에는 재 학습이 필요하며 네트워크에는 모든 게임을 잘 수행 할 수있는 단일 가중치 세트가 없었습니다. 이것은 치명적인 잊고있는 문제 때문입니다.

그러나이 문제를 극복하기 위해 최근의 작업이 수행되었습니다.

"신경망에서 치명적인 망각 극복", 2016

종이 : https://arxiv.org/pdf/1612.00796v1.pdf

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.