전체강좌
> 전체강좌 > 강의실

| 강좌명 | [심화과정]Fine tuning (파인 튜닝) - Transformer (트랜스포머) 아키텍처 Part.2 | ||
|---|---|---|---|
| 담당강사 | 김종영 | 수강기간 | 30일 |
| 강의구성 | 총 13강좌 | 수강료 | 52,000원(VAT포함) |
| 강의형식 | 동영상 | 즐겨찾기 | |
| 증명서 | 미수강 [수료증 발급 불가] | ||
| 참고사항 | 등록후 확인 가능합니다. | ||
![]() |
![]() |
![]() |
![]() |
|---|---|---|---|
| 1 | Transformer 코드 구현 1/4.. | ||
| 2 | Transformer 코드 구현 2/4.. | ||
| 3 | Transformer 코드 구현 3/4.. | ||
| 4 | Transformer 코드 구현 4/4.. | ||
| 5 | GPT-1의 Pre-training, Fine-tuning 소개, GPT-1의 Downstream task.. | ||
| 6 | GPT-1의 unsupervised pre-training 1/2.. | ||
| 7 | GPT-1의 unsupervised pre-training 2/2.. | ||
| 8 | GPT-1의 supervised fine-tuning 1/2.. | ||
| 9 | GPT-1의 supervised fine-tuning 2/2.. | ||
| 10 | BERT 소개 및 downstream 태스크.. | ||
| 11 | BERT에서 사용한 특수 토큰, BIO 태깅.. | ||
| 12 | BERT pre-training.. | ||
| 13 | BERT fine-tuning.. |