Libellé préféré : apprentissage profond;
Définition NCIt : Sous-ensemble d'apprentissage automatique faisant partie d'une famille plus vaste
de méthodologies d'apprentissage automatique basées sur des réseaux neuronaux artificiels.
Un réseau neuronal profond comporte plusieurs couches entre les couches d'entrée et
de sortie pour extraire progressivement des caractéristiques plus élevées à partir
des données brutes. (d'après le Lexique et les termes d'apprentissage automatique
DeepAI).;
Identifiant d'origine : 10908;
- Alignements EFMI
N1-VALIDE
Traitement automatique de la langue : Plongeon au coeur des word embeddings
De Word2vec à BERT, un espoir nouveau pour le TAL
https://www.cismef.org/cismef/wp/wp-content/uploads/2021/11/TAL-Embeddings.pdf
https://www.mikaeldusenne.com/bert/#/title-slide
Présentation faite par Mikaël Dusenne : Introduction; Apprentissage automatique et
langage naturel; Word embeddings; Embeddings et TAL: implémentations; 2013 - Word2vec;
2015 - Représentations contextuelles; 2017 - ELMo, 2018 - Generative Pre-trained Transformer;
Réseaux neuronaux et Mécanisme d'Attention; Transformers; Inconvénients de GPT; 2018
- Bidirectional Encoder Representations from Transformers (BERT); Performances; BERT-like;
Travaux au D2IM; Travaux Emeric Dynomant; Word embeddings dans deux contextes différents;
Annotateur sémantique
2021
false
false
false
false
false
France
français
traitement du langage naturel
apprentissage profond
Annotation de données
cours
---