신경망에서 사용되는 활성화 함수는 신경망의 출력값을 비선형적으로 변환하여 학습과정을 도와준다. 주요 활성화 함수에는 다음과 같은 것들이 있다. 1. 계단 함수 (Step Function)역치값 이상이면 1, 아니면 0인공지능 초기에 사용하였으나 지금은 잘 사용하지 않는다. 2. 시그모이드 함수 (Sigmoid Function)출력값이 0과 1 사이로 압축된다. 그러나, 시그모이드 함수는 큰 값에서 그래디언트가 매우 작아져서 학습이 느려질 수 있다 (즉, 기울기 소실 문제가 발생할 수 있음).public static double sigmoid(double x) { return 1 / (1 + Math.exp(-x));} 3. 하이퍼볼릭 탄젠트 함수 (Tanh Function)tanh(x)는 쌍곡 탄..