Libellé préféré : traitement du langage naturel;

Traduction automatique Wikipédia : Traitement automatique des langues;

Synonyme CISMeF : Linguismatique; Traitement langage naturel; traitement automatique langage naturel;

Synonyme MeSH : TLN (Traitement du langage naturel); traitement automatique du langage naturel;

Synonymes NCIt : traitement automatique du langage;

Acronyme CISMeF : TAL; TALN;

Définition du MeSH : Traitement par ordinateur d'une langue avec les règles qui reflètent et décrivent l'usage courant de cette langue plutôt que l'usage prescrit. [Traduction effectuée avant 2008];

Lien Wikipédia : https://fr.wikipedia.org/wiki/Traitement automatique des langues;

Définition NCIt : L'utilisation d'algorithmes pour déterminer les propriétés du langage humain naturel, de manière à ce que les ordinateurs puissent comprendre ce que les humains ont écrit ou dit. Le NLP comprend l'enseignement de systèmes informatiques pour extraire les données à partir de textes écrits, traduire d'une langue à l'autre et reconnaître des mots imprimés ou écrits à la main. (définitions DeepAI);

Détails


Consulter ci-dessous une sélection des principales ressources :

Vous pouvez consulter :

Traitement par ordinateur d'une langue avec les règles qui reflètent et décrivent l'usage courant de cette langue plutôt que l'usage prescrit. [Traduction effectuée avant 2008]

N1-VALIDE
Traitement automatique de la langue : Plongeon au coeur des word embeddings
De Word2vec à BERT, un espoir nouveau pour le TAL
https://www.cismef.org/cismef/wp/wp-content/uploads/2021/11/TAL-Embeddings.pdf
https://www.mikaeldusenne.com/bert/#/title-slide
Présentation faite par Mikaël Dusenne : Introduction; Apprentissage automatique et langage naturel; Word embeddings; Embeddings et TAL: implémentations; 2013 - Word2vec; 2015 - Représentations contextuelles; 2017 - ELMo, 2018 - Generative Pre-trained Transformer; Réseaux neuronaux et Mécanisme d'Attention; Transformers; Inconvénients de GPT; 2018 - Bidirectional Encoder Representations from Transformers (BERT); Performances; BERT-like; Travaux au D2IM; Travaux Emeric Dynomant; Word embeddings dans deux contextes différents; Annotateur sémantique
2021
false
false
false
false
false
France
français
traitement du langage naturel
apprentissage profond
Annotation de données
cours

---
Nous contacter.
29/04/2024


[Accueil] [Haut de page]

© CHU de Rouen. Toute utilisation partielle ou totale de ce document doit mentionner la source.