ReLU를 넘어 최신 GELU, SwiGLU, TeLU까지. 딥러닝 모델의 성능을 극대화하기 위한 활성화 함수 선택의 모든 것을 담았습니다. 은닉층부터 가장 많이 실수하는 출력층 함수 선택법까지, 명확한 가이드를 제시합니다.
#LLM #ReLU #Sigmoid #SwiGLU #Swish #Tanh #TeLU #Transformer #딥러닝 #머신러닝 #인공신경망 #활성화함수
doyouknow.kr/742/activati...
0
0
0
0