airoot의 인공지능 이야기

  • 홈
  • 태그
  • 방명록

word2vec 1

Word2Vec

Word2Vec은 자연어 처리(NLP)에서 단어를 벡터로 변환하는 방법을 제시한 모델이다. 이 모델은 단어의 의미적 유사성을 벡터 공간에서 반영하여 단어 간의 관계를 학습한다. Word2Vec은 구글의 연구원인 Tomas Mikolov와 그의 동료들에 의해 2013년에 제안되었다. 1. Mikolov, T., Chen, K., Corrado, G., & Dean, J. (2013). "Efficient Estimation of Word Representations in Vector Space." 이 논문에서는 Word2Vec 모델의 기본 개념과 CBOW 및 Skip-gram 모델을 설명한다. 이 논문은 단어의 벡터 표현을 효율적으로 학습하는 방법을 제시하였으며, 자연어 처리의 여러 작업에 혁신적인 영향을..

컴퓨터공학/NN 2024.08.21
이전
1
다음
더보기
프로필사진

airoot의 인공지능 이야기

인공지능에 관심이 많아서 공부도 하고 프로젝트도 하면서 지식을 넓혀 보려고 노력하고 있습니다.

최근글과 인기글

  • 최근글
  • 인기글
  • 분류 전체보기 (121)
    • 인공지능 (9)
      • 일반 (2)
      • 뉴스 (2)
      • 영화 속 인공지능 (5)
    • 컴퓨터공학 (54)
      • 일반 (4)
      • 기초 (5)
      • NN (11)
      • CNN (3)
      • RNN (7)
      • GAN (2)
      • Transformer (6)
      • BM (2)
      • NEAT (3)
      • 다중 객체 인식 (2)
      • 다중 화자 인식 (1)
      • 그 외 모델들 (8)
    • 뇌과학 (16)
      • 일반 (9)
      • 학습 (7)
    • 생물학 (1)
      • 일반 (11)
      • 학습 (6)
    • 심리학 (7)
      • 일반 (6)
      • 학습 (1)
    • 물리학 (14)
      • 일반 (4)
      • 양자역학 (5)
      • 천체물리학 (5)
    • 화학 (1)
      • 화학진화론 (1)
    • 기타 (2)

Tag

신경망, 기억, NLP, DNA, 인공지능, ChatGPT, rnn, 지능, GPT, 역전파, 뉴런, 진화, 손실함수, 딥러닝, 유전자, 양자역학, AI, 학습, 뇌, CNN,

Copyright © Kakao Corp. All rights reserved.

티스토리툴바