Topic de HunterChasseur :

Un khey CALÉ en DEEP LEARNING? quelques questions

Et aussi j'aurais une centaine de variable à traiter en entrée https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
Du coup faut dropout pour réduire ce qui sert à rien? Je peux faire quoi de plus pour rendre ça moins douloureux? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Le 27 avril 2022 à 21:10:40 Saephyros a écrit :

Le 27 avril 2022 à 21:09:59 :

Le 27 avril 2022 à 21:05:41 Citranus a écrit :

Le 27 avril 2022 à 20:57:02 :
- ça existe déjà : dropout ça permet de renforcer la capacité d'apprentissage du réseau

- autre façon de renforcer le message

- ça dépend de ce que tu veux faire, y a pas de "meilleur"

- Pytorch est plus utilisé en ce moment. Mais à ton niveau c'est pas important. Keras ça peut être un bon début

- C'est faisable, ça réduit le nombre de poids pour une même profondeur, donc ça réduit le temps d'entrainement. Le dropout, ce n'est pas ça.
-Ca s'appelle des couches parallèles, 'inception' je crois
-Il faut essayer pour savoir.
-Tensorflow/Keras et Pytorch ont les mêmes performances, c'est surtout la manière d'écrire le code qui change, effectivement keras est le plus simple.

Je m'en fiche que ça soit dur niveau code tant que c'est LOGIQUE https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

en vrai de vrai pytorch est le plus pratique https://image.noelshack.com/fichiers/2019/03/4/1547680066-this-meme-is-called-brainlet-wojak-73c052b7ce6b031a7963b29e865681eb.jpg

bordel https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
je dois tout recommencer https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Le dropout bloque certains neurones choisis aléatoirement à chaque batch, c'est comme si on les retirait.
Ce que ça fait, c'est que l'apprentissage est mieux réparti entre les neurones, et ça se voit au niveau des résultats.

Le 27 avril 2022 à 21:10:55 Citranus a écrit :

Le 27 avril 2022 à 21:08:03 :

Le 27 avril 2022 à 21:05:37 Saephyros a écrit :

Le 27 avril 2022 à 21:04:29 :
Apparemment le dropout c'est pas vraiment ça
Je demandais plus un truc comme ça https://image.noelshack.com/fichiers/2022/17/3/1651086264-f3-large.jpg
Ya un intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Perso je suis ingé de recherche en deep mais pas claire ton schéma https://image.noelshack.com/fichiers/2017/10/1488777371-bloggif-58bcf056bf002.png

bah à la couche 1 tu as 4 neurones avec 5 connexions pour 4 neurones à la couche 2 (au lieu de 16 connexions)
intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

L'intérêt c'est que pour arriver au résultat de ta couche de sortie, tu as peut être besoin de données qui ont déjà été calculées avant, si tu met un neurone là, il va juste reproduire une donnée, mais tu dépenseras du calcul pour ça, dis toi que chaque trait à l'entrée d'un neurone représente un gradient à calculer pour chaque batch d'entrée à chaque époque, moins il y en a plus ton réseau apprendra vite.

Ok donc l'intérêt c'est faire apprendre plus vite car moins de gradient à calculer
Mais du coup on sacrifie de la performance? Ou vu qu'il apprend plsu vite il est + performant? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Le 27 avril 2022 à 21:13:50 Citranus a écrit :
Le dropout bloque certains neurones choisis aléatoirement à chaque batch, c'est comme si on les retirait.
Ce que ça fait, c'est que l'apprentissage est mieux réparti entre les neurones, et ça se voit au niveau des résultats.

Mais si c'est aléatoire il peut supprimer des bons neurones? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
On est pas censé les choisir? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Le 27 avril 2022 à 21:15:27 :

Le 27 avril 2022 à 21:10:55 Citranus a écrit :

Le 27 avril 2022 à 21:08:03 :

Le 27 avril 2022 à 21:05:37 Saephyros a écrit :

Le 27 avril 2022 à 21:04:29 :
Apparemment le dropout c'est pas vraiment ça
Je demandais plus un truc comme ça https://image.noelshack.com/fichiers/2022/17/3/1651086264-f3-large.jpg
Ya un intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Perso je suis ingé de recherche en deep mais pas claire ton schéma https://image.noelshack.com/fichiers/2017/10/1488777371-bloggif-58bcf056bf002.png

bah à la couche 1 tu as 4 neurones avec 5 connexions pour 4 neurones à la couche 2 (au lieu de 16 connexions)
intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

L'intérêt c'est que pour arriver au résultat de ta couche de sortie, tu as peut être besoin de données qui ont déjà été calculées avant, si tu met un neurone là, il va juste reproduire une donnée, mais tu dépenseras du calcul pour ça, dis toi que chaque trait à l'entrée d'un neurone représente un gradient à calculer pour chaque batch d'entrée à chaque époque, moins il y en a plus ton réseau apprendra vite.

Ok donc l'intérêt c'est faire apprendre plus vite car moins de gradient à calculer
Mais du coup on sacrifie de la performance? Ou vu qu'il apprend plsu vite il est + performant?
https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Je pense pas que tu puisses en attendre de meilleures performances en terme de qualité de prédiction.
Par contre, en performance en terme de rapidité d'entrainement, tu y gagnes.

Ce qu'il faut que tu comprennes, c'est que le deep learning, c'est surtout expérimental.
On a une idée, on la teste, si ça marche pas tant pis, sinon tant mieux.

Le 27 avril 2022 à 21:18:47 Citranus a écrit :

Le 27 avril 2022 à 21:15:27 :

Le 27 avril 2022 à 21:10:55 Citranus a écrit :

Le 27 avril 2022 à 21:08:03 :

Le 27 avril 2022 à 21:05:37 Saephyros a écrit :

Le 27 avril 2022 à 21:04:29 :
Apparemment le dropout c'est pas vraiment ça
Je demandais plus un truc comme ça https://image.noelshack.com/fichiers/2022/17/3/1651086264-f3-large.jpg
Ya un intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Perso je suis ingé de recherche en deep mais pas claire ton schéma https://image.noelshack.com/fichiers/2017/10/1488777371-bloggif-58bcf056bf002.png

bah à la couche 1 tu as 4 neurones avec 5 connexions pour 4 neurones à la couche 2 (au lieu de 16 connexions)
intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

L'intérêt c'est que pour arriver au résultat de ta couche de sortie, tu as peut être besoin de données qui ont déjà été calculées avant, si tu met un neurone là, il va juste reproduire une donnée, mais tu dépenseras du calcul pour ça, dis toi que chaque trait à l'entrée d'un neurone représente un gradient à calculer pour chaque batch d'entrée à chaque époque, moins il y en a plus ton réseau apprendra vite.

Ok donc l'intérêt c'est faire apprendre plus vite car moins de gradient à calculer
Mais du coup on sacrifie de la performance? Ou vu qu'il apprend plsu vite il est + performant?
https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Je pense pas que tu puisses en attendre de meilleures performances en terme de qualité de prédiction.
Par contre, en performance en terme de rapidité d'entrainement, tu y gagnes.

Ce qu'il faut que tu comprennes, c'est que le deep learning, c'est surtout expérimental.
On a une idée, on la teste, si ça marche pas tant pis, sinon tant mieux.

Généralement ça prend combien de temps à entrainer un réseau? avec quelle puissance? de façon classique on va dire https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Le 27 avril 2022 à 21:18:14 :

Le 27 avril 2022 à 21:13:50 Citranus a écrit :
Le dropout bloque certains neurones choisis aléatoirement à chaque batch, c'est comme si on les retirait.
Ce que ça fait, c'est que l'apprentissage est mieux réparti entre les neurones, et ça se voit au niveau des résultats.

Mais si c'est aléatoire il peut supprimer des bons neurones? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
On est pas censé les choisir? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Il supprime aussi les bons neurones, cela force d'autres neurones à remplir son rôle, c'est ce qui fait que le dropout est efficace : le réseau ne dépend pas d'un seul neurone.

Le 27 avril 2022 à 21:20:52 Citranus a écrit :

Le 27 avril 2022 à 21:18:14 :

Le 27 avril 2022 à 21:13:50 Citranus a écrit :
Le dropout bloque certains neurones choisis aléatoirement à chaque batch, c'est comme si on les retirait.
Ce que ça fait, c'est que l'apprentissage est mieux réparti entre les neurones, et ça se voit au niveau des résultats.

Mais si c'est aléatoire il peut supprimer des bons neurones? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
On est pas censé les choisir? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Il supprime aussi les bons neurones, cela force d'autres neurones à remplir son rôle, c'est ce qui fait que le dropout est efficace : le réseau ne dépend pas d'un seul neurone.

Est ce vraiment une mauvaise chose?
Ton cerveau ya des régions plus importantes que d'autres, si on te les retire ton cerveau marche plus https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
Pourquoi ça serait pas la même là? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Le 27 avril 2022 à 21:19:45 :

Le 27 avril 2022 à 21:18:47 Citranus a écrit :

Le 27 avril 2022 à 21:15:27 :

Le 27 avril 2022 à 21:10:55 Citranus a écrit :

Le 27 avril 2022 à 21:08:03 :

Le 27 avril 2022 à 21:05:37 Saephyros a écrit :

Le 27 avril 2022 à 21:04:29 :
Apparemment le dropout c'est pas vraiment ça
Je demandais plus un truc comme ça https://image.noelshack.com/fichiers/2022/17/3/1651086264-f3-large.jpg
Ya un intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Perso je suis ingé de recherche en deep mais pas claire ton schéma https://image.noelshack.com/fichiers/2017/10/1488777371-bloggif-58bcf056bf002.png

bah à la couche 1 tu as 4 neurones avec 5 connexions pour 4 neurones à la couche 2 (au lieu de 16 connexions)
intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

L'intérêt c'est que pour arriver au résultat de ta couche de sortie, tu as peut être besoin de données qui ont déjà été calculées avant, si tu met un neurone là, il va juste reproduire une donnée, mais tu dépenseras du calcul pour ça, dis toi que chaque trait à l'entrée d'un neurone représente un gradient à calculer pour chaque batch d'entrée à chaque époque, moins il y en a plus ton réseau apprendra vite.

Ok donc l'intérêt c'est faire apprendre plus vite car moins de gradient à calculer
Mais du coup on sacrifie de la performance? Ou vu qu'il apprend plsu vite il est + performant?
https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Je pense pas que tu puisses en attendre de meilleures performances en terme de qualité de prédiction.
Par contre, en performance en terme de rapidité d'entrainement, tu y gagnes.

Ce qu'il faut que tu comprennes, c'est que le deep learning, c'est surtout expérimental.
On a une idée, on la teste, si ça marche pas tant pis, sinon tant mieux.

Généralement ça prend combien de temps à entrainer un réseau? avec quelle puissance? de façon classique on va dire https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Tout dépend du réseau. Par contre si tu t'y intéresses vraiment khey je te donne un bon conseil, achète-toi un bon PC de gamer avec un GPU nvidia.

Tu pourras jouer à des super FPS et en plus tu as ce qu'on appelle Cuda, tu utilises la carte graphique pour entraîner ton réseau et ça va infiniment plus vite.

Ah, et niveau outils, je te conseille vivement d'utiliser jupyterlab pour coder.

Le 27 avril 2022 à 21:23:52 ploud4 a écrit :

Le 27 avril 2022 à 21:19:45 :

Le 27 avril 2022 à 21:18:47 Citranus a écrit :

Le 27 avril 2022 à 21:15:27 :

Le 27 avril 2022 à 21:10:55 Citranus a écrit :

Le 27 avril 2022 à 21:08:03 :

Le 27 avril 2022 à 21:05:37 Saephyros a écrit :

Le 27 avril 2022 à 21:04:29 :
Apparemment le dropout c'est pas vraiment ça
Je demandais plus un truc comme ça https://image.noelshack.com/fichiers/2022/17/3/1651086264-f3-large.jpg
Ya un intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Perso je suis ingé de recherche en deep mais pas claire ton schéma https://image.noelshack.com/fichiers/2017/10/1488777371-bloggif-58bcf056bf002.png

bah à la couche 1 tu as 4 neurones avec 5 connexions pour 4 neurones à la couche 2 (au lieu de 16 connexions)
intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

L'intérêt c'est que pour arriver au résultat de ta couche de sortie, tu as peut être besoin de données qui ont déjà été calculées avant, si tu met un neurone là, il va juste reproduire une donnée, mais tu dépenseras du calcul pour ça, dis toi que chaque trait à l'entrée d'un neurone représente un gradient à calculer pour chaque batch d'entrée à chaque époque, moins il y en a plus ton réseau apprendra vite.

Ok donc l'intérêt c'est faire apprendre plus vite car moins de gradient à calculer
Mais du coup on sacrifie de la performance? Ou vu qu'il apprend plsu vite il est + performant?
https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Je pense pas que tu puisses en attendre de meilleures performances en terme de qualité de prédiction.
Par contre, en performance en terme de rapidité d'entrainement, tu y gagnes.

Ce qu'il faut que tu comprennes, c'est que le deep learning, c'est surtout expérimental.
On a une idée, on la teste, si ça marche pas tant pis, sinon tant mieux.

Généralement ça prend combien de temps à entrainer un réseau? avec quelle puissance? de façon classique on va dire https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Tout dépend du réseau. Par contre si tu t'y intéresses vraiment khey je te donne un bon conseil, achète-toi un bon PC de gamer avec un GPU nvidia.

Tu pourras jouer à des super FPS et en plus tu as ce qu'on appelle Cuda, tu utilises la carte graphique pour entraîner ton réseau et ça va infiniment plus vite.

Ah, et niveau outils, je te conseille vivement d'utiliser jupyterlab pour coder.

J'ai un pc correct heureusement
Cuda j'ai vite vu ce que c'était pendant que je cherchais quoi installer mais j'ai pas trop compris https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
Ah bah faut savoir l'autre khey déconseille, il apporte quoi de plus? sachant que j'ai déjà test c'est trop bizarre avec les cellules https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Le 27 avril 2022 à 21:22:33 :

Le 27 avril 2022 à 21:20:52 Citranus a écrit :

Le 27 avril 2022 à 21:18:14 :

Le 27 avril 2022 à 21:13:50 Citranus a écrit :
Le dropout bloque certains neurones choisis aléatoirement à chaque batch, c'est comme si on les retirait.
Ce que ça fait, c'est que l'apprentissage est mieux réparti entre les neurones, et ça se voit au niveau des résultats.

Mais si c'est aléatoire il peut supprimer des bons neurones? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
On est pas censé les choisir? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Il supprime aussi les bons neurones, cela force d'autres neurones à remplir son rôle, c'est ce qui fait que le dropout est efficace : le réseau ne dépend pas d'un seul neurone.

Est ce vraiment une mauvaise chose?
Ton cerveau ya des régions plus importantes que d'autres, si on te les retire ton cerveau marche plus https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
Pourquoi ça serait pas la même là? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Le cerveau humain est capable de réutiliser d'autres zones pour compenser des zones qui ne fonctionnent plus, l'idée c'est que ton réseau de neurones soit pareil.

Mais je pense que tu vas peut-être un peu vite en besogne, avant de faire des réseaux de neurones ce serait déjà bien que tu saches faire de l'apprentissage plus basique. Est-ce que tu sais entraîner un arbre de décision ? Un knn ? Une régression linéaire ? Une régression logistique ? Tout ça ça te parle ?

Je sais que les réseaux de neurones c'est à la mode en ce moment, mais faut connaître les bases. Souvent les modèles plus simples sont meilleurs, j'ai déjà eu le cas.

Le 27 avril 2022 à 21:25:09 :

Le 27 avril 2022 à 21:23:52 ploud4 a écrit :

Le 27 avril 2022 à 21:19:45 :

Le 27 avril 2022 à 21:18:47 Citranus a écrit :

Le 27 avril 2022 à 21:15:27 :

Le 27 avril 2022 à 21:10:55 Citranus a écrit :

Le 27 avril 2022 à 21:08:03 :

Le 27 avril 2022 à 21:05:37 Saephyros a écrit :

Le 27 avril 2022 à 21:04:29 :
Apparemment le dropout c'est pas vraiment ça
Je demandais plus un truc comme ça https://image.noelshack.com/fichiers/2022/17/3/1651086264-f3-large.jpg
Ya un intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Perso je suis ingé de recherche en deep mais pas claire ton schéma https://image.noelshack.com/fichiers/2017/10/1488777371-bloggif-58bcf056bf002.png

bah à la couche 1 tu as 4 neurones avec 5 connexions pour 4 neurones à la couche 2 (au lieu de 16 connexions)
intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

L'intérêt c'est que pour arriver au résultat de ta couche de sortie, tu as peut être besoin de données qui ont déjà été calculées avant, si tu met un neurone là, il va juste reproduire une donnée, mais tu dépenseras du calcul pour ça, dis toi que chaque trait à l'entrée d'un neurone représente un gradient à calculer pour chaque batch d'entrée à chaque époque, moins il y en a plus ton réseau apprendra vite.

Ok donc l'intérêt c'est faire apprendre plus vite car moins de gradient à calculer
Mais du coup on sacrifie de la performance? Ou vu qu'il apprend plsu vite il est + performant?
https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Je pense pas que tu puisses en attendre de meilleures performances en terme de qualité de prédiction.
Par contre, en performance en terme de rapidité d'entrainement, tu y gagnes.

Ce qu'il faut que tu comprennes, c'est que le deep learning, c'est surtout expérimental.
On a une idée, on la teste, si ça marche pas tant pis, sinon tant mieux.

Généralement ça prend combien de temps à entrainer un réseau? avec quelle puissance? de façon classique on va dire https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Tout dépend du réseau. Par contre si tu t'y intéresses vraiment khey je te donne un bon conseil, achète-toi un bon PC de gamer avec un GPU nvidia.

Tu pourras jouer à des super FPS et en plus tu as ce qu'on appelle Cuda, tu utilises la carte graphique pour entraîner ton réseau et ça va infiniment plus vite.

Ah, et niveau outils, je te conseille vivement d'utiliser jupyterlab pour coder.

J'ai un pc correct heureusement
Cuda j'ai vite vu ce que c'était pendant que je cherchais quoi installer mais j'ai pas trop compris https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
Ah bah faut savoir l'autre khey déconseille, il apporte quoi de plus? sachant que j'ai déjà test c'est trop bizarre avec les cellules https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Tout le monde utilise ça en ML. N'écoute pas l'autre qui te conseille d'utiliser vim, c'est un troll, Vim c'est un éditeur pour les puristes de la console sous Linux qui est pas intuitif du tout et ça te prend des mois avant de savoir l'exécuter.

L'avantage avec les cellules c'est que tu peux afficher facilement des graphes, des tables... Bref tout ce dont un bon statisticien a besoin. Car oui, un ingé ML est un statisticien avant tout.

Le 27 avril 2022 à 20:54:28 :
- Dans les models chaque neurons d'une couche sont reliés à tous les autres neurons de la coucheX+1, mais est ce qu'on pourrait pas faire un nombre de connexions aléatoires? ça a un intérêt? un nom? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

- Apparemment ya des réseaux où une couche saute la coucheX+1 pour aller sur une autre encore plus loin, encore : nom ? intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

- Le meilleur système pour du deeplearning en finance (analyse de chart et prédiction) c'est quoi? CNN? LSTMN? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

- Tensorflow le meilleur pour faire ça? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Je travaille dans le domaine et je ne peux répondre à aucune de tes questions https://image.noelshack.com/fichiers/2021/43/4/1635454847-elton-john-tison-golem.png

Le 27 avril 2022 à 21:22:33 :

Le 27 avril 2022 à 21:20:52 Citranus a écrit :

Le 27 avril 2022 à 21:18:14 :

Le 27 avril 2022 à 21:13:50 Citranus a écrit :
Le dropout bloque certains neurones choisis aléatoirement à chaque batch, c'est comme si on les retirait.
Ce que ça fait, c'est que l'apprentissage est mieux réparti entre les neurones, et ça se voit au niveau des résultats.

Mais si c'est aléatoire il peut supprimer des bons neurones? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
On est pas censé les choisir? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Il supprime aussi les bons neurones, cela force d'autres neurones à remplir son rôle, c'est ce qui fait que le dropout est efficace : le réseau ne dépend pas d'un seul neurone.

Est ce vraiment une mauvaise chose?
Ton cerveau ya des régions plus importantes que d'autres, si on te les retire ton cerveau marche plus https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
Pourquoi ça serait pas la même là? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Si on retire des zones de ton cerveau, il peut aussi s'adapter pour que des neurones prennent la place de ceux que tu as détruit.
Là on retire une partie aléatoire des neurones à chaque fois, c'est pas pareil.

Le 27 avril 2022 à 21:25:57 ploud4 a écrit :

Le 27 avril 2022 à 21:22:33 :

Le 27 avril 2022 à 21:20:52 Citranus a écrit :

Le 27 avril 2022 à 21:18:14 :

Le 27 avril 2022 à 21:13:50 Citranus a écrit :
Le dropout bloque certains neurones choisis aléatoirement à chaque batch, c'est comme si on les retirait.
Ce que ça fait, c'est que l'apprentissage est mieux réparti entre les neurones, et ça se voit au niveau des résultats.

Mais si c'est aléatoire il peut supprimer des bons neurones? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
On est pas censé les choisir? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Il supprime aussi les bons neurones, cela force d'autres neurones à remplir son rôle, c'est ce qui fait que le dropout est efficace : le réseau ne dépend pas d'un seul neurone.

Est ce vraiment une mauvaise chose?
Ton cerveau ya des régions plus importantes que d'autres, si on te les retire ton cerveau marche plus https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
Pourquoi ça serait pas la même là? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Le cerveau humain est capable de réutiliser d'autres zones pour compenser des zones qui ne fonctionnent plus, l'idée c'est que ton réseau de neurones soit pareil.

Mais je pense que tu vas peut-être un peu vite en besogne, avant de faire des réseaux de neurones ce serait déjà bien que tu saches faire de l'apprentissage plus basique. Est-ce que tu sais entraîner un arbre de décision ? Un knn ? Une régression linéaire ? Une régression logistique ? Tout ça ça te parle ?

Je sais que les réseaux de neurones c'est à la mode en ce moment, mais faut connaître les bases. Souvent les modèles plus simples sont meilleurs, j'ai déjà eu le cas.

Je pense que c'est le plus adapté vu la quantité de données que j'ai à traiter, et vu la nature des marchés financiers https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Ah et oui, Jupyter Notebook c'est la vie hein. Je détestais ça en école d'ingé car je savais pas l'utiliser, mais en fait à partir du moment où t'as passé un peu de temps dessus tu ne peux juste plus t'en passer https://image.noelshack.com/fichiers/2021/43/4/1635454847-elton-john-tison-golem.png
Celui qui a créé ça est un genius https://image.noelshack.com/fichiers/2021/43/4/1635454847-elton-john-tison-golem.png

Le 27 avril 2022 à 21:27:15 ploud4 a écrit :

Le 27 avril 2022 à 21:25:09 :

Le 27 avril 2022 à 21:23:52 ploud4 a écrit :

Le 27 avril 2022 à 21:19:45 :

Le 27 avril 2022 à 21:18:47 Citranus a écrit :

Le 27 avril 2022 à 21:15:27 :

Le 27 avril 2022 à 21:10:55 Citranus a écrit :

Le 27 avril 2022 à 21:08:03 :

Le 27 avril 2022 à 21:05:37 Saephyros a écrit :

Le 27 avril 2022 à 21:04:29 :
Apparemment le dropout c'est pas vraiment ça
Je demandais plus un truc comme ça https://image.noelshack.com/fichiers/2022/17/3/1651086264-f3-large.jpg
Ya un intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Perso je suis ingé de recherche en deep mais pas claire ton schéma https://image.noelshack.com/fichiers/2017/10/1488777371-bloggif-58bcf056bf002.png

bah à la couche 1 tu as 4 neurones avec 5 connexions pour 4 neurones à la couche 2 (au lieu de 16 connexions)
intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

L'intérêt c'est que pour arriver au résultat de ta couche de sortie, tu as peut être besoin de données qui ont déjà été calculées avant, si tu met un neurone là, il va juste reproduire une donnée, mais tu dépenseras du calcul pour ça, dis toi que chaque trait à l'entrée d'un neurone représente un gradient à calculer pour chaque batch d'entrée à chaque époque, moins il y en a plus ton réseau apprendra vite.

Ok donc l'intérêt c'est faire apprendre plus vite car moins de gradient à calculer
Mais du coup on sacrifie de la performance? Ou vu qu'il apprend plsu vite il est + performant?
https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Je pense pas que tu puisses en attendre de meilleures performances en terme de qualité de prédiction.
Par contre, en performance en terme de rapidité d'entrainement, tu y gagnes.

Ce qu'il faut que tu comprennes, c'est que le deep learning, c'est surtout expérimental.
On a une idée, on la teste, si ça marche pas tant pis, sinon tant mieux.

Généralement ça prend combien de temps à entrainer un réseau? avec quelle puissance? de façon classique on va dire https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Tout dépend du réseau. Par contre si tu t'y intéresses vraiment khey je te donne un bon conseil, achète-toi un bon PC de gamer avec un GPU nvidia.

Tu pourras jouer à des super FPS et en plus tu as ce qu'on appelle Cuda, tu utilises la carte graphique pour entraîner ton réseau et ça va infiniment plus vite.

Ah, et niveau outils, je te conseille vivement d'utiliser jupyterlab pour coder.

J'ai un pc correct heureusement
Cuda j'ai vite vu ce que c'était pendant que je cherchais quoi installer mais j'ai pas trop compris https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
Ah bah faut savoir l'autre khey déconseille, il apporte quoi de plus? sachant que j'ai déjà test c'est trop bizarre avec les cellules https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Tout le monde utilise ça en ML. N'écoute pas l'autre qui te conseille d'utiliser vim, c'est un troll, Vim c'est un éditeur pour les puristes de la console sous Linux qui est pas intuitif du tout et ça te prend des mois avant de savoir l'exécuter.

L'avantage avec les cellules c'est que tu peux afficher facilement des graphes, des tables... Bref tout ce dont un bon statisticien a besoin. Car oui, un ingé ML est un statisticien avant tout.

Ah bah justement c'est pas possible avec pycharm les graph? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Le 27 avril 2022 à 21:30:26 :

Le 27 avril 2022 à 21:25:57 ploud4 a écrit :

Le 27 avril 2022 à 21:22:33 :

Le 27 avril 2022 à 21:20:52 Citranus a écrit :

Le 27 avril 2022 à 21:18:14 :

Le 27 avril 2022 à 21:13:50 Citranus a écrit :
Le dropout bloque certains neurones choisis aléatoirement à chaque batch, c'est comme si on les retirait.
Ce que ça fait, c'est que l'apprentissage est mieux réparti entre les neurones, et ça se voit au niveau des résultats.

Mais si c'est aléatoire il peut supprimer des bons neurones? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
On est pas censé les choisir? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Il supprime aussi les bons neurones, cela force d'autres neurones à remplir son rôle, c'est ce qui fait que le dropout est efficace : le réseau ne dépend pas d'un seul neurone.

Est ce vraiment une mauvaise chose?
Ton cerveau ya des régions plus importantes que d'autres, si on te les retire ton cerveau marche plus https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
Pourquoi ça serait pas la même là? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Le cerveau humain est capable de réutiliser d'autres zones pour compenser des zones qui ne fonctionnent plus, l'idée c'est que ton réseau de neurones soit pareil.

Mais je pense que tu vas peut-être un peu vite en besogne, avant de faire des réseaux de neurones ce serait déjà bien que tu saches faire de l'apprentissage plus basique. Est-ce que tu sais entraîner un arbre de décision ? Un knn ? Une régression linéaire ? Une régression logistique ? Tout ça ça te parle ?

Je sais que les réseaux de neurones c'est à la mode en ce moment, mais faut connaître les bases. Souvent les modèles plus simples sont meilleurs, j'ai déjà eu le cas.

Je pense que c'est le plus adapté vu la quantité de données que j'ai à traiter, et vu la nature des marchés financiers https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

https://image.noelshack.com/fichiers/2016/24/1466366209-risitas24.png

Khey comment tu peux savoir, tu as même pas testé.

Le 27 avril 2022 à 21:31:19 :

Le 27 avril 2022 à 21:27:15 ploud4 a écrit :

Le 27 avril 2022 à 21:25:09 :

Le 27 avril 2022 à 21:23:52 ploud4 a écrit :

Le 27 avril 2022 à 21:19:45 :

Le 27 avril 2022 à 21:18:47 Citranus a écrit :

Le 27 avril 2022 à 21:15:27 :

Le 27 avril 2022 à 21:10:55 Citranus a écrit :

Le 27 avril 2022 à 21:08:03 :

Le 27 avril 2022 à 21:05:37 Saephyros a écrit :

Le 27 avril 2022 à 21:04:29 :
Apparemment le dropout c'est pas vraiment ça
Je demandais plus un truc comme ça https://image.noelshack.com/fichiers/2022/17/3/1651086264-f3-large.jpg
Ya un intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Perso je suis ingé de recherche en deep mais pas claire ton schéma https://image.noelshack.com/fichiers/2017/10/1488777371-bloggif-58bcf056bf002.png

bah à la couche 1 tu as 4 neurones avec 5 connexions pour 4 neurones à la couche 2 (au lieu de 16 connexions)
intérêt? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

L'intérêt c'est que pour arriver au résultat de ta couche de sortie, tu as peut être besoin de données qui ont déjà été calculées avant, si tu met un neurone là, il va juste reproduire une donnée, mais tu dépenseras du calcul pour ça, dis toi que chaque trait à l'entrée d'un neurone représente un gradient à calculer pour chaque batch d'entrée à chaque époque, moins il y en a plus ton réseau apprendra vite.

Ok donc l'intérêt c'est faire apprendre plus vite car moins de gradient à calculer
Mais du coup on sacrifie de la performance? Ou vu qu'il apprend plsu vite il est + performant?
https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Je pense pas que tu puisses en attendre de meilleures performances en terme de qualité de prédiction.
Par contre, en performance en terme de rapidité d'entrainement, tu y gagnes.

Ce qu'il faut que tu comprennes, c'est que le deep learning, c'est surtout expérimental.
On a une idée, on la teste, si ça marche pas tant pis, sinon tant mieux.

Généralement ça prend combien de temps à entrainer un réseau? avec quelle puissance? de façon classique on va dire https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Tout dépend du réseau. Par contre si tu t'y intéresses vraiment khey je te donne un bon conseil, achète-toi un bon PC de gamer avec un GPU nvidia.

Tu pourras jouer à des super FPS et en plus tu as ce qu'on appelle Cuda, tu utilises la carte graphique pour entraîner ton réseau et ça va infiniment plus vite.

Ah, et niveau outils, je te conseille vivement d'utiliser jupyterlab pour coder.

J'ai un pc correct heureusement
Cuda j'ai vite vu ce que c'était pendant que je cherchais quoi installer mais j'ai pas trop compris https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png
Ah bah faut savoir l'autre khey déconseille, il apporte quoi de plus? sachant que j'ai déjà test c'est trop bizarre avec les cellules https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Tout le monde utilise ça en ML. N'écoute pas l'autre qui te conseille d'utiliser vim, c'est un troll, Vim c'est un éditeur pour les puristes de la console sous Linux qui est pas intuitif du tout et ça te prend des mois avant de savoir l'exécuter.

L'avantage avec les cellules c'est que tu peux afficher facilement des graphes, des tables... Bref tout ce dont un bon statisticien a besoin. Car oui, un ingé ML est un statisticien avant tout.

Ah bah justement c'est pas possible avec pycharm les graph? https://image.noelshack.com/fichiers/2022/17/1/1650876612-karen12.png

Non, Pycharm c'est un éditeur de code pour les gros projets, si tu veux exécuter des notebooks dedans tu peux mais faut raquer la version payante.

Données du topic

Auteur
HunterChasseur
Date de création
27 avril 2022 à 20:54:28
Nb. messages archivés
257
Nb. messages JVC
245
En ligne sur JvArchive 307