airoot의 인공지능 이야기

  • 홈
  • 태그
  • 방명록

BERT 2

BERT(Bidirectional Encoder Representations from Transformers)

BERT(Bidirectional Encoder Representations from Transformers)는 2018년 구글 AI에서 개발한 자연어 처리(NLP) 모델로, 트랜스포머(Transformer) 아키텍처를 기반으로 한다. BERT는 다양한 NLP 작업에서 혁신적인 성능을 보여주었고, 이후 많은 연구 및 응용 모델들의 기초가 되었다. BERT: Pre-training of Deep Bidirectional Transformers for Language UnderstandingWe introduce a new language representation model called BERT, which stands for Bidirectional Encoder Representations from T..

컴퓨터공학/Transformer 2024.08.18

GPT(Generative pre-trained transformer)

GPT-1(Generative Pre-trained Transformer 1)은 2017년 Google의 트랜스포머 아키텍처 발명에 이은 OpenAI의 첫 번째 대규모 언어 모델입니다. 2018년 6월, OpenAI는 "Improving Language Understanding by Generative Pre-Training"이라는 제목의 논문을 발표했으며, 이 논문에서 생성형 사전 훈련된 트랜스포머의 일반적인 개념과 함께 초기 모델을 소개했다. Improving Language Understanding by Generative Pre-Training그 시점까지 가장 성능이 좋은 신경망 NLP 모델은 주로 수동으로 레이블링된 대량의 데이터로부터 지도 학습을 사용했다. 지도 학습에 대한 이러한 의존은 주석..

컴퓨터공학/Transformer 2024.08.18
이전
1
다음
더보기
프로필사진

airoot의 인공지능 이야기

인공지능에 관심이 많아서 공부도 하고 프로젝트도 하면서 지식을 넓혀 보려고 노력하고 있습니다.

최근글과 인기글

  • 최근글
  • 인기글
  • 분류 전체보기 (116)
    • 인공지능 (9)
      • 일반 (2)
      • 뉴스 (2)
      • 영화 속 인공지능 (5)
    • 컴퓨터공학 (54)
      • 일반 (4)
      • 기초 (5)
      • NN (11)
      • CNN (3)
      • RNN (7)
      • GAN (2)
      • Transformer (6)
      • BM (2)
      • NEAT (3)
      • 다중 객체 인식 (2)
      • 다중 화자 인식 (1)
      • 그 외 모델들 (8)
    • 뇌과학 (13)
      • 일반 (8)
      • 학습 (5)
    • 생물학 (17)
      • 일반 (11)
      • 학습 (6)
    • 심리학 (7)
      • 일반 (6)
      • 학습 (1)
    • 물리학 (14)
      • 일반 (4)
      • 양자역학 (5)
      • 천체물리학 (5)
    • 화학 (1)
      • 화학진화론 (1)
    • 기타 (1)

Tag

역전파, 뉴런, rnn, 양자역학, DNA, GPT, AI, 진화, NLP, 손실함수, ChatGPT, 학습, 기억, 지능, 신경망, 딥러닝, 인공지능, 유전자, CNN, 뇌,

Copyright © Kakao Corp. All rights reserved.

티스토리툴바