원문정보
Comparison of Reinforcement Learning Activation Functions to Maximize Rewards in Autonomous Highway Driving
초록
영어
Autonomous driving technology has recently made great progress with the introduction of deep reinforcement learning. In order to effectively use deep reinforcement learning, it is important to select the appropriate activation function. In the meantime, many activation functions have been presented, but they show different performance depending on the environment to be applied. This paper compares and evaluates the performance of 12 activation functions to see which activation functions are effective when using reinforcement learning to learn autonomous driving on highways. To this end, a performance evaluation method was presented and the average reward value of each activation function was compared. As a result, when using GELU, the highest average reward could be obtained, and SiLU showed the lowest performance. The average reward difference between the two activation functions was 20%.
한국어
자율주행 기술은 최근 심층 강화학습의 도입으로 큰 발전을 이루고 있다. 심층 강화 학습을 효과적으로 사용하기 위해서는 적절한 활성화 함수를 선택하는 것이 중요하다. 그 동안 많은 활성화 함수가 제시되었으나 적용할 환경에 따라 다른 성능을 보여주었다. 본 논문은 고속도로에서 자율주행을 학습하기 위해 강화 학습을 사용할 때 어떤 활성화 함수를 사용하는 것이 효과적인지 12개의 활성화 함수 성능을 비교 평가한다. 이를 위한 성능 평가 방법을 제시하였고 각 활성 화 함수의 평균 보상 값을 비교하였다. 그 결과 GELU를 사용할 경우 가장 높은 평균 보상을 얻을 수 있었으며 SiLU는 가장 낮은 성능을 보여주었다. 두 활성화 함수의 평균 보상 차이는 20%였다.
목차
Abstract
Ⅰ. 서론
Ⅱ. 관련 연구
1. Rectified Linear Unit (ReLU)
2. Softplus
3. Leaky Rectified Linear Unit (Leaky ReLU)
4. Exponential Linear Unit (ELU)
5. Parametric Rectified Linear Unit (PReLU)
6. Gaussian Error Linear Unit (GELU)
7. Scaled Exponential Linear Unit (SELU)
8. Continuously Differentiable Exponential Linear Units (CELU)
9. Sigmoid-Weighted Linear Units (SiLU)
10. Mish
11. Hardswish
12. Hard Hiperbolic Function (HardTanH)
Ⅲ. 성능 평가 방법
Ⅳ. 성능 평가
Ⅴ. 결론
References
