원문정보
Comparison of Learning Performance of Genetic Algorithms and PPO Algorithms in Virtual Environment
초록
영어
Currently, several algorithms are used to create suitable models, but they often consume a lot of resources. In addition, there are cases where the weights of the learned models are not global optimal points, resulting in the use of resources for further learning. Therefore, in this paper, the model was constructed with a genetic algorithm to find the global optimum using relatively few resources in the learning process of finding the model. In order to find out the learning performance of genetic algorithms, we compared the performance of genetic algorithms by activation function by changing the activation function used in genetic algorithms in the first experiment, and compared analysis with PPO algorithms used in reinforcement learning in the second experiment. The experiment results showed that the difference between the agents consumed in the first experiment was small, but the genetic algorithm using the Lelu function scored high. In the second experiment, it was confirmed that the genetic algorithm used fewer agents than the PPO algorithm, but scored higher.
한국어
현재 적합한 모델을 만들기 위해 여러 가지 알고리즘을 사용하지만 많은 자원을 소모하는 경우가 많다. 또한 학습이 끝난 모델의 가중치 값이 전역 최적점이 아닌 경우가 있어 추가적인 학습에 자원을 사용하는 경우가 발생한 다. 이에 본 논문에서는 모델을 찾는 학습과정에서 비교적 적은 자원을 사용하여 전역 최적점을 찾기 위해 유전 알고 리즘으로 모델을 제작했다. 유전 알고리즘의 학습 성능을 알아보기 위해 첫 번째 실험에서 유전 알고리즘에 사용되는 활성화 함수를 바꿔가면서 활성화 함수별 유전 알고리즘의 성능을 비교하였고, 두 번째 실험에서 모델 성능을 알아보 기 위해 강화 학습에 대표적으로 사용되고 있는 PPO 알고리즘과 비교 분석을 진행했다. 실험 결과 첫 번째 실험에서 소모된 에이전트의 차이는 적었지만 렐루 함수를 사용한 유전 알고리즘이 높은 점수를 얻었다. 두 번째 실험에서는 유전 알고리즘이 PPO알고리즘보다 적은 에이전트 수를 사용했지만 높은 점수가 나온 것으로 확인되었다.
목차
Abstract
Ⅰ. 서론
Ⅱ. 학습 환경
Ⅲ. Proximal Policy Optimization
Ⅳ. Genetic Algorithm
Ⅴ. 실험 및 비교 분석
Ⅵ. 결론 및 향후연구
REFERENCES
