- μμ μ λͺ©: Getting Started with Google BERT: Build and train state-of-the-art natural language processing models using BERT
- λμ λ§ν¬
- λͺ©ν
- κ΅¬κΈ BERTμ μ μ μλ
- μ±ν° λ³ μ°μ΅λ¬Έμ μ μ΄λ μ λ μ€μ€λ‘ λ΅ν μ μμ μ λμ μ΄ν΄
- BERT κΈ°λ°μ λ€λ₯Έ NLP λ Όλ¬Έμ μ½μ μ μμ μ λμ μ΄ν΄
- λ°©μ:
- μ£Ό 1ν 1μ±ν°λ₯Ό 2λͺ μ© λμκ°λ©΄μ λ°μ
- λ Όλ¬Έμ μ°Έκ³ ν μ μλ μ±ν°λ λ Όλ¬Έ μ°Έκ³
- λ°μ νμ§ μλ μ€ν°λμλ€μ ν΄λΉ λΆλμ μλ
- Chapter λ³λ‘ issue λ°ννμ¬ κΆκΈνκ±°λ μ΄λ €μ΄ λΆλΆ μ€ν°λμΌμ 곡μ λ° ν μ
- κΈ°κ°: 2022.01.12 ~ 2022.03.23(11μ£Ό)
- μ€ν°λ μΌμ: λ§€μ£Ό μμμΌ 21:00 ~ 22:00(25+25λΆ λ°ν + 10λΆ ν μ) (μ€ν°λμλ€κ³Όμ νμ νμ μ¬μ μ‘°μ κ°λ₯)
- Google Meet Link
μ€ν°λ μμμΌ(220112)μ random seedλ‘ νμ¬ λ°ν μμλ₯Ό λλ€μΌλ‘ λ°°μ νμμ΅λλ€. Code
| Chapter | λ°μ μ |
|---|---|
| 1. νΈλμ€ν¬λ¨Έ μ λ¬Έ | μ΄μμ(fixed) |
| 2. BERT μ΄ν΄νκΈ° | λ¨μμ°, λ°μμΌ |
| 3. BERT νμ©νκΈ° | μν¬, μ΄μμ |
| 4-1. BERTμ νμλͺ¨λΈ 1 ALBERT, RoBERTa | μ΄μμ, λ¨μμ° |
| 4-2. BERTμ νμλͺ¨λΈ 1 ELECTRA, SpanBERT | λ°μμΌ, μν¬ |
| 5. BERTμ νμλͺ¨λΈ 2 μ§μ μ¦λ₯ κΈ°λ° | λ°μμΌ, μ΄μμ |
| 6. ν μ€νΈ μμ½μ μν BERTSUM νμ | μν¬, λ¨μμ° |
| 7. λ€λ₯Έ μΈμ΄μ BERT μ μ©νκΈ° | μ΄μμ, λ°μμΌ |
| 8. sentence-BERT λ° domain-BERT μ΄ν΄λ³΄κΈ° | λ¨μμ°, μν¬ |
| 9. VideoBERT, BART | λ°μμΌ, μν¬ |
| 10. νκ΅μ΄ μΈμ΄ λͺ¨λΈ KoBERT, KoGPT2, KoBART | μ΄μμ |
# repo μμ μμΉλ₯Ό /λ‘ νκΈ°
/summaries # λ°μ μλ£ μ
λ‘λ
/images # λ°μ μλ£ μ΄λ―Έμ§ μ
λ‘λ (λ°μ μλ£μ μ΄λ―Έμ§κ° μλ€λ©΄ ν΄λΉ λλ ν 리μ μ
λ‘λν΄ μλκ²½λ‘λ‘μ¨ μ΄λ―Έμ§ μ½μ
)
/codes # λ°μ λ΄μ© κΈ°λ° μμ μ½λ λ± μμ± μ ν΄λΉ λλ ν 리μ μ
λ‘λ
- λ°μ νμΌ λͺ
λͺ
λ°©μ:
chapter01_λ°μ μ(e.g. eunsiklee.νμ₯μ) - λ°μ νμΌ νμ: Markdown, ipynb, pdf λ± μμ νμ
- λ¨μμ°(@mori8)
- λ°μμΌ(@shyram)
- μν¬(@0hee0)
- μ΄μμ(@emphasis10)
- ν¨λν°λ λ°λ‘ μ νμ§ μμ§λ§ μΆν μ€ν°λ μ΄μ μνμ λ°λΌ μΆκ°λ μ μμ΅λλ€.