Earticle

현재 위치 Home

인터넷방통융합

고속도로 자율주행 시 보상을 최대화하기 위한 강화 학습 활성화 함수 비교
Comparison of Reinforcement Learning Activation Functions to Maximize Rewards in Autonomous Highway Driving

첫 페이지 보기
  • 발행기관
    국제인공지능학회(구 한국인터넷방송통신학회) 바로가기
  • 간행물
    한국인터넷방송통신학회 논문지 KCI 등재 바로가기
  • 통권
    제22권 제5호 (2022.10)바로가기
  • 페이지
    pp.63-68
  • 저자
    이동철
  • 언어
    한국어(KOR)
  • URL
    https://www.earticle.net/Article/A419587

※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.

원문정보

초록

영어
Autonomous driving technology has recently made great progress with the introduction of deep reinforcement learning. In order to effectively use deep reinforcement learning, it is important to select the appropriate activation function. In the meantime, many activation functions have been presented, but they show different performance depending on the environment to be applied. This paper compares and evaluates the performance of 12 activation functions to see which activation functions are effective when using reinforcement learning to learn autonomous driving on highways. To this end, a performance evaluation method was presented and the average reward value of each activation function was compared. As a result, when using GELU, the highest average reward could be obtained, and SiLU showed the lowest performance. The average reward difference between the two activation functions was 20%.
한국어
자율주행 기술은 최근 심층 강화학습의 도입으로 큰 발전을 이루고 있다. 심층 강화 학습을 효과적으로 사용하기 위해서는 적절한 활성화 함수를 선택하는 것이 중요하다. 그 동안 많은 활성화 함수가 제시되었으나 적용할 환경에 따라 다른 성능을 보여주었다. 본 논문은 고속도로에서 자율주행을 학습하기 위해 강화 학습을 사용할 때 어떤 활성화 함수를 사용하는 것이 효과적인지 12개의 활성화 함수 성능을 비교 평가한다. 이를 위한 성능 평가 방법을 제시하였고 각 활성 화 함수의 평균 보상 값을 비교하였다. 그 결과 GELU를 사용할 경우 가장 높은 평균 보상을 얻을 수 있었으며 SiLU는 가장 낮은 성능을 보여주었다. 두 활성화 함수의 평균 보상 차이는 20%였다.

목차

요약
Abstract
Ⅰ. 서론
Ⅱ. 관련 연구
1. Rectified Linear Unit (ReLU)
2. Softplus
3. Leaky Rectified Linear Unit (Leaky ReLU)
4. Exponential Linear Unit (ELU)
5. Parametric Rectified Linear Unit (PReLU)
6. Gaussian Error Linear Unit (GELU)
7. Scaled Exponential Linear Unit (SELU)
8. Continuously Differentiable Exponential Linear Units (CELU)
9. Sigmoid-Weighted Linear Units (SiLU)
10. Mish
11. Hardswish
12. Hard Hiperbolic Function (HardTanH)
Ⅲ. 성능 평가 방법
Ⅳ. 성능 평가
Ⅴ. 결론
References

키워드

Autonomous Driving Deep Learning Reinforcement Learning

저자

  • 이동철 [ Dongcheul Lee | 종신회원, 한남대학교 멀티미디어공학과 ] Corresponding Author

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    국제인공지능학회(구 한국인터넷방송통신학회) [The International Association for Artificial Intelligence]
  • 설립연도
    2000
  • 분야
    공학>전자/정보통신공학
  • 소개
    인터넷방송, 인터넷 TV , 방송 통신 네트워크 및 관련 분야에 대한 국내는 물론 국제적인 학술, 기술의 진흥발전에 공헌하고 지식 정보화 사회에 기여하고자 한다.

간행물

  • 간행물명
    한국인터넷방송통신학회 논문지 [The Journal of the Institute of Internet, Broadcasting and Communication]
  • 간기
    격월간
  • pISSN
    2289-0238
  • eISSN
    2289-0246
  • 수록기간
    2001~2025
  • 십진분류
    KDC 326 DDC 380

이 권호 내 다른 논문 / 한국인터넷방송통신학회 논문지 제22권 제5호

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장