본문 바로가기

연구/deep learning

[GAN] mode collapse는 G와 D가 어떻게 학습될때 발생하는 문제인가?

반응형

mode collapse는 G가 계속 똑같은 모양의 data를 출력해내는 문제를 말한다.

 

이 문제는 G가 제대로 학습한게 아니라 D를 속이는데에만 최적화되게 학습된 형태를 말한다.

그렇다면 어떻게 제대로 학습되지도 않았는데 Discriminator를 속일 수 있었을까?

 

정답은 애초에 D가 global optima로 수렴하지 않았기 때문이다. 어떠한 이유로 D가 local minima에 빠졌거나 학습이 제대로 이루어 지지 않았기 때문에 G의 속임수를 잘 판별하지 못하게 되고 그로 인해 G도 더이상 의미있는 gradient를 뽑아 낼 수 없었기 때문에 학습이 멈춰버린 것이다.

 

 

반응형