Question débile Natural Language Processing
- 1
Pour traiter des données textuelles on doit d'abord transformer le texte en une séquence de vecteurs de nombres, la façon la plus naïve quand l'ensemble des mots pouvant apparaître est connu a l'avance c'est de numéroter les mots puis de leur associer un vecteur de nul pour chaque coordonnées sauf celle qui correspond à leur numéro.
Après ça on peut si nécessaire projeter les vecteurs sur un espace de plus petite dimension avec tout un tas de méthode, soit
Mais je comprends pas pourquoi au lieu de se taper des vecteurs de la taille V du dictionnaire on n'écrit pas simplement les numéros des mots en binaire pour construire des vecteurs de taille ceil(log2(V)) (qui ne serait cette fois pas quasiment rempli de zéros)?
Après ça rien n'interdit de projeter ça encore sur un autre espace, mais on a au moins déjà préalablement réduit énormément la dimension des vecteurs à projeter
[03:08:17] <Moiouimoient>
AAAAAAAHHHHHHH BEEEEEUUUUUUUUUUUUUAAAAAAARRRRRRR !!!
Merci du uppent
genre reine = roi + femme
[03:09:04] <Chankla_Divine>
Tais-toi le PTSI , retourne dessiner des boulons
Non
[03:09:36] <Imad>
j'y connais rien mais je pense qu'on travaille sur un espace plus petit de base qui donne une meilleure compréhension sémantique aux mots
genre reine = roi + femme
Oui ça j'ai bien compris, mais pour entraîner les algos style word2vec on se base sur la représentation de taille V alors que rien n'interdirait de se baser sur la représentation de taille ceil(log2(V))
[03:09:36] <Imad>
j'y connais rien mais je pense qu'on travaille sur un espace plus petit de base qui donne une meilleure compréhension sémantique aux mots
genre reine = roi + femme
Je sais pas si je suis très clair mais ce que je veux dire c'est qu'on pourrait faire les deux
Le 15 février 2021 à 03:11:01 [Ban2]PTSI-PT a écrit :
[03:09:36] <Imad>
j'y connais rien mais je pense qu'on travaille sur un espace plus petit de base qui donne une meilleure compréhension sémantique aux mots
genre reine = roi + femmeOui ça j'ai bien compris, mais pour entraîner les algos style word2vec on se base sur la représentation de taille V alors que rien n'interdirait de se baser sur la représentation de taille ceil(log2(V))
ta représentation réduite implique déjà tout un tas de dépendances entre les vecteurs, dont tu ne veux pas a priori je suppose. Si le but est d'entrainer des dependances semantiques tu veux partir de vecteurs indépendants au début
Le 15 février 2021 à 03:11:01 [Ban2]PTSI-PT a écrit :
[03:09:36] <Imad>
j'y connais rien mais je pense qu'on travaille sur un espace plus petit de base qui donne une meilleure compréhension sémantique aux mots
genre reine = roi + femmeOui ça j'ai bien compris, mais pour entraîner les algos style word2vec on se base sur la représentation de taille V alors que rien n'interdirait de se baser sur la représentation de taille ceil(log2(V))
ben après t'es obligé d'aligner les mots un par un pour les numéroter non ? binaire ou pas tu peux pas réduire.
car pour faire des algos du style Transformer/Traducteur, en sortie t'as un vecteur avec des probas dedans pour chaque mot donc numéroter en binaire ça change r
[03:13:41] <Jacana>
Le 15 février 2021 à 03:11:01 [Ban2]PTSI-PT a écrit :
[03:09:36] <Imad>
j'y connais rien mais je pense qu'on travaille sur un espace plus petit de base qui donne une meilleure compréhension sémantique aux mots
genre reine = roi + femmeOui ça j'ai bien compris, mais pour entraîner les algos style word2vec on se base sur la représentation de taille V alors que rien n'interdirait de se baser sur la représentation de taille ceil(log2(V))
ta représentation réduite implique déjà tout un tas de dépendances entre les vecteurs, dont tu ne veux pas a priori je suppose. Si le but est d'entrainer des dependances semantiques tu veux partir de vecteurs indépendants au début
Bah il y a la même information dans le vecteur de taille en log que dans le vecteur de départ, si on apprend la transformation vers l'espace réduit avec des réseaux de neurones ça devrait pas changer quoi que ce soit fondamentalement
[03:14:35] <Imad>
Le 15 février 2021 à 03:11:01 [Ban2]PTSI-PT a écrit :
[03:09:36] <Imad>
j'y connais rien mais je pense qu'on travaille sur un espace plus petit de base qui donne une meilleure compréhension sémantique aux mots
genre reine = roi + femmeOui ça j'ai bien compris, mais pour entraîner les algos style word2vec on se base sur la représentation de taille V alors que rien n'interdirait de se baser sur la représentation de taille ceil(log2(V))
ben après t'es obligé d'aligner les mots un par un pour les numéroter non ? binaire ou pas tu peux pas réduire.
car pour faire des algos du style Transformer/Traducteur, en sortie t'as un vecteur avec des probas dedans pour chaque mot donc numéroter en binaire ça change r
Ah, je pense que c'est l'interprétation proba qu'il manque au vecteur binaire oui, bien vu
Mais bon il doit bien y avoir des applications où on s'en branle un peu de cet aspect et dans lesquels ce serait plus intéressant d'avoir un modèle plus parcimonieux pour faire la projection
Bon ben si j'ai pu aider un khey alors que je suis une bite en info c toujours utile
Mais sinon regarde la page de Google collab sur le NLP ça te présente un peu toutes les applications du NLP, je pense que tu peux y voir plus clair
[03:18:43] <Imad>
je suis pas très clair non plus mais exemple le mot "it" tu veux le traduire en français, en sortie d'un transformer t'as un vecteur de la taille de ton dico français avec des probas [0,1; 0,002,...,] et les nombres les plus élevées sont ceux qui sont le plus proche du mot "it".
C'est plutôt en sortie du décodeur que tu as un vecteur de ce style
En sortie du transformer tu as un vecteur de petite taille avec pleins de coeffs non nuls, c'est quand tu décodes ça pour prédire un mot que tu as un vecteur pour lequel ça peut avoir un intérêt d'avoir l'interprétation probabiliste
Mais si tu fais pas de la traduction mais plutôt de la classification de texte, avoir une interprétation proba dans l'espace des mots, osef un peu je pense
Le 15 février 2021 à 03:23:49 [Ban2]PTSI-PT a écrit :
[03:18:43] <Imad>
je suis pas très clair non plus mais exemple le mot "it" tu veux le traduire en français, en sortie d'un transformer t'as un vecteur de la taille de ton dico français avec des probas [0,1; 0,002,...,] et les nombres les plus élevées sont ceux qui sont le plus proche du mot "it".C'est plutôt en sortie du décodeur que tu as un vecteur de ce style
En sortie du transformer tu as un vecteur de petite taille avec pleins de coeffs non nuls, c'est quand tu décodes ça pour prédire un mot que tu as un vecteur pour lequel ça peut avoir un intérêt d'avoir l'interprétation probabiliste
Mais si tu fais pas de la traduction mais plutôt de la classification de texte, avoir une interprétation proba dans l'espace des mots, osef un peu je pense
la classification de texte utilise des transformers nan ?
[03:25:15] <Imad>
Le 15 février 2021 à 03:23:49 [Ban2]PTSI-PT a écrit :
[03:18:43] <Imad>
je suis pas très clair non plus mais exemple le mot "it" tu veux le traduire en français, en sortie d'un transformer t'as un vecteur de la taille de ton dico français avec des probas [0,1; 0,002,...,] et les nombres les plus élevées sont ceux qui sont le plus proche du mot "it".C'est plutôt en sortie du décodeur que tu as un vecteur de ce style
En sortie du transformer tu as un vecteur de petite taille avec pleins de coeffs non nuls, c'est quand tu décodes ça pour prédire un mot que tu as un vecteur pour lequel ça peut avoir un intérêt d'avoir l'interprétation probabiliste
Mais si tu fais pas de la traduction mais plutôt de la classification de texte, avoir une interprétation proba dans l'espace des mots, osef un peu je pense
la classification de texte utilise des transformers nan ?
Bah en entrée du classifieur tu utilises les coordonnées dans l'espace construit par le transformer
Mais en sortie tu n'as pas besoin de faire la transformation inverse puisque c'est pas un mot que tu prédis mais une classe, donc tu as besoin de l'interprétation probabiliste dans l'espace des classes mais pas dans l'espace des mots
Donc rien n'interdit de construire le transformer avec le vecteur de taille log, d'ailleurs j'ai envie d'essayer, il doit y avoir 3 lignes à changer dans ton exemple
- 1
Données du topic
- Auteur
- [Ban2]PTSI-PT
- Date de création
- 15 février 2021 à 03:05:59
- Nb. messages archivés
- 18
- Nb. messages JVC
- 18