Steadily

  • 홈
  • 태그
  • 방명록

transformers 1

Transformers Architecture

트랜스포머 아키텍처원본 트랜스포머 아키텍처는 Encoder-Decoder 구조를 기반으로 한다.Encoder입력 토큰의 시퀀스를 은닉 상태(hidden state) or 문맥(context) 이라 부르는 임베딩 벡터의 시퀀스로 변환한다.Decoder인코더의 은닉 상태를 사용하여 출력 토큰의 시퀀스를 한 번에 하나씩 반복적으로 생성한다.원본 트랜스포머 아키텍처는 기계 번역과 같은 Seq2Seq 작업을 위해 고안되었지만, 시간이 지나며 인코더와 디코더는 독립적인 모델로 발전되었다.인코더 유형텍스트 시퀀스 입력을 풍부한 수치 표현으로 변환한다.한 토큰에 대해 계산된 표현은 왼쪽(이전 토큰)과 오른쪽(이후 토큰) 문맥에 따라 달라지는 Bidirectional Attention의 특징을 가진다.텍스트 분류, 개체..

Programming/NLP,LLM 2024.01.03
이전
1
다음
더보기
프로필사진

서버와 데브옵스, 그리고 클라우드를 좋아합니다. 오늘 배운 개발지식을 하나씩 알려드려요. Email : songseungho9258@gmail.com

방문자수Total

  • Today :
  • Yesterday :
  • 분류 전체보기 (9)
    • Programming (6)
      • DevOps (1)
      • Java (1)
      • NLP,LLM (4)
    • Life (2)

Tag

slack webhook, AWS, LLM, Bert, github webhook, GPT-4, ChatGPT, AWS Lambda, seq2seq, PEFT, Github PR, cybertuned, Slack-Ops, s2w, 자연어처리, NLP, hallucination, aws re:invent, AWS GameDay, multi-head attention,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

Archives

Copyright © Kakao Corp. All rights reserved.

티스토리툴바