airoot의 인공지능 이야기

  • 홈
  • 태그
  • 방명록

tanh 2

신경망에서 사용되는 활성화함수들

신경망에서 사용되는 활성화 함수는 신경망의 출력값을 비선형적으로 변환하여 학습과정을 도와준다. 주요 활성화 함수에는 다음과 같은 것들이 있다. 1. 계단 함수 (Step Function)역치값 이상이면 1, 아니면 0인공지능 초기에 사용하였으나 지금은 잘 사용하지 않는다. 2. 시그모이드 함수 (Sigmoid Function)​출력값이 0과 1 사이로 압축된다. 그러나, 시그모이드 함수는 큰 값에서 그래디언트가 매우 작아져서 학습이 느려질 수 있다 (즉, 기울기 소실 문제가 발생할 수 있음).public static double sigmoid(double x) { return 1 / (1 + Math.exp(-x));} 3. 하이퍼볼릭 탄젠트 함수 (Tanh Function)tanh(x)는 쌍곡 탄..

컴퓨터공학/NN 2024.08.28

유용한 미분방정식

1. (x-a)의 제곱을 미분하면2. sign을 미분하면 cosign3. cosign 미분하면 -sign4. tan를 미분하면5. tanh를 미분하면6. Sigmoid함수를 미분하면7. MSE를 미분하면8. ReLU함수를 미분하면,9. Softmax를 미분하면,10. Cross-Entropy + Softmax 미분

컴퓨터공학/기초 2024.08.28
이전
1
다음
더보기
프로필사진

airoot의 인공지능 이야기

인공지능에 관심이 많아서 공부도 하고 프로젝트도 하면서 지식을 넓혀 보려고 노력하고 있습니다.

최근글과 인기글

  • 최근글
  • 인기글
  • 분류 전체보기 (117) N
    • 인공지능 (9)
      • 일반 (2)
      • 뉴스 (2)
      • 영화 속 인공지능 (5)
    • 컴퓨터공학 (54)
      • 일반 (4)
      • 기초 (5)
      • NN (11)
      • CNN (3)
      • RNN (7)
      • GAN (2)
      • Transformer (6)
      • BM (2)
      • NEAT (3)
      • 다중 객체 인식 (2)
      • 다중 화자 인식 (1)
      • 그 외 모델들 (8)
    • 뇌과학 (14) N
      • 일반 (9) N
      • 학습 (5)
    • 생물학 (17)
      • 일반 (11)
      • 학습 (6)
    • 심리학 (7)
      • 일반 (6)
      • 학습 (1)
    • 물리학 (14)
      • 일반 (4)
      • 양자역학 (5)
      • 천체물리학 (5)
    • 화학 (1)
      • 화학진화론 (1)
    • 기타 (1)

Tag

손실함수, 뉴런, DNA, CNN, rnn, 신경망, 역전파, AI, GPT, 양자역학, ChatGPT, NLP, 진화, 학습, 유전자, 딥러닝, 뇌, 기억, 지능, 인공지능,

Copyright © Kakao Corp. All rights reserved.

티스토리툴바