Libellé préféré : traitement du langage naturel;
Traduction automatique Wikipédia : Traitement automatique des langues;
Synonyme CISMeF : Linguismatique; Traitement langage naturel; traitement automatique langage naturel;
Synonyme MeSH : TLN (Traitement du langage naturel); traitement automatique du langage naturel;
Synonymes NCIt : traitement automatique du langage;
Acronyme CISMeF : TAL; TALN;
Définition du MeSH : Traitement par ordinateur d'une langue avec les règles qui reflètent et décrivent
l'usage courant de cette langue plutôt que l'usage prescrit. [Traduction effectuée
avant 2008];
Lien Wikipédia : https://fr.wikipedia.org/wiki/Traitement automatique des langues;
Définition NCIt : L'utilisation d'algorithmes pour déterminer les propriétés du langage humain naturel,
de manière à ce que les ordinateurs puissent comprendre ce que les humains ont écrit
ou dit. Le NLP comprend l'enseignement de systèmes informatiques pour extraire les
données à partir de textes écrits, traduire d'une langue à l'autre et reconnaître
des mots imprimés ou écrits à la main. (définitions DeepAI);
Identifiant d'origine : 10425;
- Alignements EFMI
- Alignements automatiques CISMeF supervisés
- Alignements automatiques exacts (par équipe CISMeF)
Traitement par ordinateur d'une langue avec les règles qui reflètent et décrivent
l'usage courant de cette langue plutôt que l'usage prescrit. [Traduction effectuée
avant 2008]
N1-VALIDE
Traitement automatique de la langue : Plongeon au coeur des word embeddings
De Word2vec à BERT, un espoir nouveau pour le TAL
https://www.cismef.org/cismef/wp/wp-content/uploads/2021/11/TAL-Embeddings.pdf
https://www.mikaeldusenne.com/bert/#/title-slide
Présentation faite par Mikaël Dusenne : Introduction; Apprentissage automatique et
langage naturel; Word embeddings; Embeddings et TAL: implémentations; 2013 - Word2vec;
2015 - Représentations contextuelles; 2017 - ELMo, 2018 - Generative Pre-trained Transformer;
Réseaux neuronaux et Mécanisme d'Attention; Transformers; Inconvénients de GPT; 2018
- Bidirectional Encoder Representations from Transformers (BERT); Performances; BERT-like;
Travaux au D2IM; Travaux Emeric Dynomant; Word embeddings dans deux contextes différents;
Annotateur sémantique
2021
false
false
false
false
false
France
français
traitement du langage naturel
apprentissage profond
Annotation de données
cours
---