【入門・実践】Hugging Face、Transformersライブラリの使い方について

1. 概要・インストール
2. 基本的な使い方
- パイプラインの活用
- モデルの読み込み
- トークナイザの概要
3. デコード手法
- generate
4. テキスト分類
5. 名前付きエンティティ認識 (NER)
6. 文章生成
- GPT (Generative Pre-trained Transformer)
7. 文章要約
- BART
- T5
8. 質問応答(QA)
9. マスク化言語モデル (MLM)
- BERT (Bidirectional Encoder Representations from Transformers)
- bert-base-japanese-v2について
- bert-large-uncasedについて
- bert-base-casedについて
- bert-base-uncasedについて
10. テキスト生成の言語モデル
11. datasets
12. Transformersの高速化・軽量化手法
- 軽量化手法
- 知識蒸留について
- 量子化について
13. よくある警告の解説
14. よくあるエラーメッセージの解説
PR