Résumé du chapitre
Au cours de ce chapitre, vous avez vu comment approcher différents problèmes de NLP en utilisant la fonction pipeline()
de la bibliothèque 🤗 Transformers. Vous avez également vu comment rechercher et utiliser des modèles dans le Hub ainsi que comment utiliser l’API d’inférence pour tester les modèles directement dans votre navigateur.
Nous avons pu aborder le fonctionnement des transformers de façon générale et parler de l’importance de l’apprentissage par transfert et du finetuning. Un point important est que vous pouvez utiliser l’architecture complète ou seulement l’encodeur ou le décodeur, selon le type de tâche que vous souhaitez résoudre. Le tableau suivant résume ceci :
Modèle | Exemples | Tâches |
---|---|---|
Encodeur | ALBERT, BERT, DistilBERT, ELECTRA, RoBERTa | Classification de phrase, reconnaissance d’entités nommées, extraction de question-réponse |
Décodeur | CTRL, GPT, GPT-2, Transformer XL | Génération de texte |
Encodeur-décodeur | BART, T5, Marian, mBART | Résumé, traduction, génération de question-réponse |