Un khey CALÉ en DEEP LEARNING? quelques questions
Le 27 avril 2022 à 21:28:20 Peil a écrit :
Le 27 avril 2022 à 20:54:28 :
- Dans les models chaque neurons d'une couche sont reliés à tous les autres neurons de la coucheX+1, mais est ce qu'on pourrait pas faire un nombre de connexions aléatoires? ça a un intérêt? un nom?- Apparemment ya des réseaux où une couche saute la coucheX+1 pour aller sur une autre encore plus loin, encore : nom ? intérêt?
- Le meilleur système pour du deeplearning en finance (analyse de chart et prédiction) c'est quoi? CNN? LSTMN?
Je travaille dans le domaine et je ne peux répondre à aucune de tes questions
Le 27 avril 2022 à 21:30:53 Peil a écrit :
Ah et oui, Jupyter Notebook c'est la vie hein. Je détestais ça en école d'ingé car je savais pas l'utiliser, mais en fait à partir du moment où t'as passé un peu de temps dessus tu ne peux juste plus t'en passerLe 27 avril 2022 à 21:30:53 Peil a écrit :
Ah et oui, Jupyter Notebook c'est la vie hein. Je détestais ça en école d'ingé car je savais pas l'utiliser, mais en fait à partir du moment où t'as passé un peu de temps dessus tu ne peux juste plus t'en passer
Je vais voir du coup, déjà pycharm marche je vais pas tenter le diable à recommencer, j'ai mis un bon bout de temps à faire marcher vu que ya jamais rien qui marche avec l'informatique de merde
Le 27 avril 2022 à 21:32:40 :
Le 27 avril 2022 à 21:28:20 Peil a écrit :
Le 27 avril 2022 à 20:54:28 :
- Dans les models chaque neurons d'une couche sont reliés à tous les autres neurons de la coucheX+1, mais est ce qu'on pourrait pas faire un nombre de connexions aléatoires? ça a un intérêt? un nom?- Apparemment ya des réseaux où une couche saute la coucheX+1 pour aller sur une autre encore plus loin, encore : nom ? intérêt?
- Le meilleur système pour du deeplearning en finance (analyse de chart et prédiction) c'est quoi? CNN? LSTMN?
Je travaille dans le domaine et je ne peux répondre à aucune de tes questions
Le 27 avril 2022 à 21:30:53 Peil a écrit :
Ah et oui, Jupyter Notebook c'est la vie hein. Je détestais ça en école d'ingé car je savais pas l'utiliser, mais en fait à partir du moment où t'as passé un peu de temps dessus tu ne peux juste plus t'en passerLe 27 avril 2022 à 21:30:53 Peil a écrit :
Ah et oui, Jupyter Notebook c'est la vie hein. Je détestais ça en école d'ingé car je savais pas l'utiliser, mais en fait à partir du moment où t'as passé un peu de temps dessus tu ne peux juste plus t'en passerJe vais voir du coup, déjà pycharm marche je vais pas tenter le diable à recommencer, j'ai mis un bon bout de temps à faire marcher vu que ya jamais rien qui marche avec l'informatique de merde
Mec abandonne Pycharm, ce truc est infiniment compliqué et tu vas devenir zinzin avant de maîtriser toutes ses fonctionnalités. Moi j'ai fait une école d'ingé et je suis spécialisé en ML et je sais pas toutes les utiliser. Tu connais Git au moins ?
Utilise jupyterlab ou jupyter notebook la version de base. Rien d'autre.
Je veux un environnement qui permette d'avoir jupyter lab, support GPU pour tensorflow.
J'ai essayé via docker, j'ai regardé les docs de tensorflow, mais je n'arrive qu'à avoir jupyter lab support CPU
J'ai le support GPU actuellement, mais c'est pas dans un environnement, donc pas de jupyter lab.
Le 27 avril 2022 à 21:31:25 ploud4 a écrit :
Le 27 avril 2022 à 21:30:26 :
Le 27 avril 2022 à 21:25:57 ploud4 a écrit :
Le 27 avril 2022 à 21:22:33 :
Le 27 avril 2022 à 21:20:52 Citranus a écrit :
Le 27 avril 2022 à 21:18:14 :
Le 27 avril 2022 à 21:13:50 Citranus a écrit :
Le dropout bloque certains neurones choisis aléatoirement à chaque batch, c'est comme si on les retirait.
Ce que ça fait, c'est que l'apprentissage est mieux réparti entre les neurones, et ça se voit au niveau des résultats.Mais si c'est aléatoire il peut supprimer des bons neurones?
On est pas censé les choisir?Il supprime aussi les bons neurones, cela force d'autres neurones à remplir son rôle, c'est ce qui fait que le dropout est efficace : le réseau ne dépend pas d'un seul neurone.
Est ce vraiment une mauvaise chose?
Ton cerveau ya des régions plus importantes que d'autres, si on te les retire ton cerveau marche plus
Pourquoi ça serait pas la même là?Le cerveau humain est capable de réutiliser d'autres zones pour compenser des zones qui ne fonctionnent plus, l'idée c'est que ton réseau de neurones soit pareil.
Mais je pense que tu vas peut-être un peu vite en besogne, avant de faire des réseaux de neurones ce serait déjà bien que tu saches faire de l'apprentissage plus basique. Est-ce que tu sais entraîner un arbre de décision ? Un knn ? Une régression linéaire ? Une régression logistique ? Tout ça ça te parle ?
Je sais que les réseaux de neurones c'est à la mode en ce moment, mais faut connaître les bases. Souvent les modèles plus simples sont meilleurs, j'ai déjà eu le cas.
Je pense que c'est le plus adapté vu la quantité de données que j'ai à traiter, et vu la nature des marchés financiers
Khey comment tu peux savoir, tu as même pas testé.
bah justement je demande des conseils pour tester ayoooooo
Le 27 avril 2022 à 21:32:23 ploud4 a écrit :
Le 27 avril 2022 à 21:31:19 :
Le 27 avril 2022 à 21:27:15 ploud4 a écrit :
Le 27 avril 2022 à 21:25:09 :
Le 27 avril 2022 à 21:23:52 ploud4 a écrit :
Le 27 avril 2022 à 21:19:45 :
Le 27 avril 2022 à 21:18:47 Citranus a écrit :
Le 27 avril 2022 à 21:15:27 :
Le 27 avril 2022 à 21:10:55 Citranus a écrit :
Le 27 avril 2022 à 21:08:03 :
Le 27 avril 2022 à 21:05:37 Saephyros a écrit :
Le 27 avril 2022 à 21:04:29 :
Apparemment le dropout c'est pas vraiment ça
Je demandais plus un truc comme ça
Ya un intérêt?Perso je suis ingé de recherche en deep mais pas claire ton schéma
bah à la couche 1 tu as 4 neurones avec 5 connexions pour 4 neurones à la couche 2 (au lieu de 16 connexions)
intérêt?L'intérêt c'est que pour arriver au résultat de ta couche de sortie, tu as peut être besoin de données qui ont déjà été calculées avant, si tu met un neurone là, il va juste reproduire une donnée, mais tu dépenseras du calcul pour ça, dis toi que chaque trait à l'entrée d'un neurone représente un gradient à calculer pour chaque batch d'entrée à chaque époque, moins il y en a plus ton réseau apprendra vite.
Ok donc l'intérêt c'est faire apprendre plus vite car moins de gradient à calculer
Mais du coup on sacrifie de la performance? Ou vu qu'il apprend plsu vite il est + performant?
Je pense pas que tu puisses en attendre de meilleures performances en terme de qualité de prédiction.
Par contre, en performance en terme de rapidité d'entrainement, tu y gagnes.Ce qu'il faut que tu comprennes, c'est que le deep learning, c'est surtout expérimental.
On a une idée, on la teste, si ça marche pas tant pis, sinon tant mieux.Généralement ça prend combien de temps à entrainer un réseau? avec quelle puissance? de façon classique on va dire
Tout dépend du réseau. Par contre si tu t'y intéresses vraiment khey je te donne un bon conseil, achète-toi un bon PC de gamer avec un GPU nvidia.
Tu pourras jouer à des super FPS et en plus tu as ce qu'on appelle Cuda, tu utilises la carte graphique pour entraîner ton réseau et ça va infiniment plus vite.
Ah, et niveau outils, je te conseille vivement d'utiliser jupyterlab pour coder.
J'ai un pc correct heureusement
Cuda j'ai vite vu ce que c'était pendant que je cherchais quoi installer mais j'ai pas trop compris
Ah bah faut savoir l'autre khey déconseille, il apporte quoi de plus? sachant que j'ai déjà test c'est trop bizarre avec les cellulesTout le monde utilise ça en ML. N'écoute pas l'autre qui te conseille d'utiliser vim, c'est un troll, Vim c'est un éditeur pour les puristes de la console sous Linux qui est pas intuitif du tout et ça te prend des mois avant de savoir l'exécuter.
L'avantage avec les cellules c'est que tu peux afficher facilement des graphes, des tables... Bref tout ce dont un bon statisticien a besoin. Car oui, un ingé ML est un statisticien avant tout.
Non, Pycharm c'est un éditeur de code pour les gros projets, si tu veux exécuter des notebooks dedans tu peux mais faut raquer la version payante.
ah putain ils font chier ya quoi qui permet de coder mais voir des graphiques
( à part un truc à cellule)
Le 27 avril 2022 à 21:34:52 ploud4 a écrit :
Le 27 avril 2022 à 21:32:40 :
Le 27 avril 2022 à 21:28:20 Peil a écrit :
Le 27 avril 2022 à 20:54:28 :
- Dans les models chaque neurons d'une couche sont reliés à tous les autres neurons de la coucheX+1, mais est ce qu'on pourrait pas faire un nombre de connexions aléatoires? ça a un intérêt? un nom?- Apparemment ya des réseaux où une couche saute la coucheX+1 pour aller sur une autre encore plus loin, encore : nom ? intérêt?
- Le meilleur système pour du deeplearning en finance (analyse de chart et prédiction) c'est quoi? CNN? LSTMN?
Je travaille dans le domaine et je ne peux répondre à aucune de tes questions
Le 27 avril 2022 à 21:30:53 Peil a écrit :
Ah et oui, Jupyter Notebook c'est la vie hein. Je détestais ça en école d'ingé car je savais pas l'utiliser, mais en fait à partir du moment où t'as passé un peu de temps dessus tu ne peux juste plus t'en passerLe 27 avril 2022 à 21:30:53 Peil a écrit :
Ah et oui, Jupyter Notebook c'est la vie hein. Je détestais ça en école d'ingé car je savais pas l'utiliser, mais en fait à partir du moment où t'as passé un peu de temps dessus tu ne peux juste plus t'en passerJe vais voir du coup, déjà pycharm marche je vais pas tenter le diable à recommencer, j'ai mis un bon bout de temps à faire marcher vu que ya jamais rien qui marche avec l'informatique de merde
Mec abandonne Pycharm, ce truc est infiniment compliqué et tu vas devenir zinzin avant de maîtriser toutes ses fonctionnalités. Moi j'ai fait une école d'ingé et je suis spécialisé en ML et je sais pas toutes les utiliser. Tu connais Git au moins ?
Utilise jupyterlab ou jupyter notebook la version de base. Rien d'autre.
Mais coder sur du web bordel c'est poubelle
Ya pas un entre deux? jupyter + pycharm?
Le 27 avril 2022 à 21:35:34 :
Le 27 avril 2022 à 21:31:25 ploud4 a écrit :
Le 27 avril 2022 à 21:30:26 :
Le 27 avril 2022 à 21:25:57 ploud4 a écrit :
Le 27 avril 2022 à 21:22:33 :
Le 27 avril 2022 à 21:20:52 Citranus a écrit :
Le 27 avril 2022 à 21:18:14 :
Le 27 avril 2022 à 21:13:50 Citranus a écrit :
Le dropout bloque certains neurones choisis aléatoirement à chaque batch, c'est comme si on les retirait.
Ce que ça fait, c'est que l'apprentissage est mieux réparti entre les neurones, et ça se voit au niveau des résultats.Mais si c'est aléatoire il peut supprimer des bons neurones?
On est pas censé les choisir?Il supprime aussi les bons neurones, cela force d'autres neurones à remplir son rôle, c'est ce qui fait que le dropout est efficace : le réseau ne dépend pas d'un seul neurone.
Est ce vraiment une mauvaise chose?
Ton cerveau ya des régions plus importantes que d'autres, si on te les retire ton cerveau marche plus
Pourquoi ça serait pas la même là?Le cerveau humain est capable de réutiliser d'autres zones pour compenser des zones qui ne fonctionnent plus, l'idée c'est que ton réseau de neurones soit pareil.
Mais je pense que tu vas peut-être un peu vite en besogne, avant de faire des réseaux de neurones ce serait déjà bien que tu saches faire de l'apprentissage plus basique. Est-ce que tu sais entraîner un arbre de décision ? Un knn ? Une régression linéaire ? Une régression logistique ? Tout ça ça te parle ?
Je sais que les réseaux de neurones c'est à la mode en ce moment, mais faut connaître les bases. Souvent les modèles plus simples sont meilleurs, j'ai déjà eu le cas.
Je pense que c'est le plus adapté vu la quantité de données que j'ai à traiter, et vu la nature des marchés financiers
Khey comment tu peux savoir, tu as même pas testé.
bah justement je demande des conseils pour tester ayoooooo
Tu as testé le boosting ? Tu as testé la régression logistique ? Tu as testé le SVM ?
Le 27 avril 2022 à 21:32:23 ploud4 a écrit :
Le 27 avril 2022 à 21:31:19 :
Le 27 avril 2022 à 21:27:15 ploud4 a écrit :
Le 27 avril 2022 à 21:25:09 :
Le 27 avril 2022 à 21:23:52 ploud4 a écrit :
Le 27 avril 2022 à 21:19:45 :
Le 27 avril 2022 à 21:18:47 Citranus a écrit :
Le 27 avril 2022 à 21:15:27 :
Le 27 avril 2022 à 21:10:55 Citranus a écrit :
Le 27 avril 2022 à 21:08:03 :
Le 27 avril 2022 à 21:05:37 Saephyros a écrit :
Le 27 avril 2022 à 21:04:29 :
Apparemment le dropout c'est pas vraiment ça
Je demandais plus un truc comme ça
Ya un intérêt?Perso je suis ingé de recherche en deep mais pas claire ton schéma
bah à la couche 1 tu as 4 neurones avec 5 connexions pour 4 neurones à la couche 2 (au lieu de 16 connexions)
intérêt?L'intérêt c'est que pour arriver au résultat de ta couche de sortie, tu as peut être besoin de données qui ont déjà été calculées avant, si tu met un neurone là, il va juste reproduire une donnée, mais tu dépenseras du calcul pour ça, dis toi que chaque trait à l'entrée d'un neurone représente un gradient à calculer pour chaque batch d'entrée à chaque époque, moins il y en a plus ton réseau apprendra vite.
Ok donc l'intérêt c'est faire apprendre plus vite car moins de gradient à calculer
Mais du coup on sacrifie de la performance? Ou vu qu'il apprend plsu vite il est + performant?
Je pense pas que tu puisses en attendre de meilleures performances en terme de qualité de prédiction.
Par contre, en performance en terme de rapidité d'entrainement, tu y gagnes.Ce qu'il faut que tu comprennes, c'est que le deep learning, c'est surtout expérimental.
On a une idée, on la teste, si ça marche pas tant pis, sinon tant mieux.Généralement ça prend combien de temps à entrainer un réseau? avec quelle puissance? de façon classique on va dire
Tout dépend du réseau. Par contre si tu t'y intéresses vraiment khey je te donne un bon conseil, achète-toi un bon PC de gamer avec un GPU nvidia.
Tu pourras jouer à des super FPS et en plus tu as ce qu'on appelle Cuda, tu utilises la carte graphique pour entraîner ton réseau et ça va infiniment plus vite.
Ah, et niveau outils, je te conseille vivement d'utiliser jupyterlab pour coder.
J'ai un pc correct heureusement
Cuda j'ai vite vu ce que c'était pendant que je cherchais quoi installer mais j'ai pas trop compris
Ah bah faut savoir l'autre khey déconseille, il apporte quoi de plus? sachant que j'ai déjà test c'est trop bizarre avec les cellulesTout le monde utilise ça en ML. N'écoute pas l'autre qui te conseille d'utiliser vim, c'est un troll, Vim c'est un éditeur pour les puristes de la console sous Linux qui est pas intuitif du tout et ça te prend des mois avant de savoir l'exécuter.
L'avantage avec les cellules c'est que tu peux afficher facilement des graphes, des tables... Bref tout ce dont un bon statisticien a besoin. Car oui, un ingé ML est un statisticien avant tout.
Non, Pycharm c'est un éditeur de code pour les gros projets, si tu veux exécuter des notebooks dedans tu peux mais faut raquer la version payante.
ah putain ils font chier ya quoi qui permet de coder mais voir des graphiques
( à part un truc à cellule)
Bah le truc à cellule. En théorie tu peux afficher des graphes avec un éditeur de code python (genre pyzo). Tu peux aussi vider la mer avec une petite cuiller en théorie.
Le 27 avril 2022 à 21:37:53 ploud4 a écrit :
Le 27 avril 2022 à 21:35:34 :
Le 27 avril 2022 à 21:31:25 ploud4 a écrit :
Le 27 avril 2022 à 21:30:26 :
Le 27 avril 2022 à 21:25:57 ploud4 a écrit :
Le 27 avril 2022 à 21:22:33 :
Le 27 avril 2022 à 21:20:52 Citranus a écrit :
Le 27 avril 2022 à 21:18:14 :
Le 27 avril 2022 à 21:13:50 Citranus a écrit :
Le dropout bloque certains neurones choisis aléatoirement à chaque batch, c'est comme si on les retirait.
Ce que ça fait, c'est que l'apprentissage est mieux réparti entre les neurones, et ça se voit au niveau des résultats.Mais si c'est aléatoire il peut supprimer des bons neurones?
On est pas censé les choisir?Il supprime aussi les bons neurones, cela force d'autres neurones à remplir son rôle, c'est ce qui fait que le dropout est efficace : le réseau ne dépend pas d'un seul neurone.
Est ce vraiment une mauvaise chose?
Ton cerveau ya des régions plus importantes que d'autres, si on te les retire ton cerveau marche plus
Pourquoi ça serait pas la même là?Le cerveau humain est capable de réutiliser d'autres zones pour compenser des zones qui ne fonctionnent plus, l'idée c'est que ton réseau de neurones soit pareil.
Mais je pense que tu vas peut-être un peu vite en besogne, avant de faire des réseaux de neurones ce serait déjà bien que tu saches faire de l'apprentissage plus basique. Est-ce que tu sais entraîner un arbre de décision ? Un knn ? Une régression linéaire ? Une régression logistique ? Tout ça ça te parle ?
Je sais que les réseaux de neurones c'est à la mode en ce moment, mais faut connaître les bases. Souvent les modèles plus simples sont meilleurs, j'ai déjà eu le cas.
Je pense que c'est le plus adapté vu la quantité de données que j'ai à traiter, et vu la nature des marchés financiers
Khey comment tu peux savoir, tu as même pas testé.
bah justement je demande des conseils pour tester ayoooooo
Tu as testé le boosting ? Tu as testé la régression logistique ? Tu as testé le SVM ?
Le 27 avril 2022 à 21:32:23 ploud4 a écrit :
Le 27 avril 2022 à 21:31:19 :
Le 27 avril 2022 à 21:27:15 ploud4 a écrit :
Le 27 avril 2022 à 21:25:09 :
Le 27 avril 2022 à 21:23:52 ploud4 a écrit :
Le 27 avril 2022 à 21:19:45 :
Le 27 avril 2022 à 21:18:47 Citranus a écrit :
Le 27 avril 2022 à 21:15:27 :
Le 27 avril 2022 à 21:10:55 Citranus a écrit :
Le 27 avril 2022 à 21:08:03 :
Le 27 avril 2022 à 21:05:37 Saephyros a écrit :
Le 27 avril 2022 à 21:04:29 :
Apparemment le dropout c'est pas vraiment ça
Je demandais plus un truc comme ça
Ya un intérêt?Perso je suis ingé de recherche en deep mais pas claire ton schéma
bah à la couche 1 tu as 4 neurones avec 5 connexions pour 4 neurones à la couche 2 (au lieu de 16 connexions)
intérêt?L'intérêt c'est que pour arriver au résultat de ta couche de sortie, tu as peut être besoin de données qui ont déjà été calculées avant, si tu met un neurone là, il va juste reproduire une donnée, mais tu dépenseras du calcul pour ça, dis toi que chaque trait à l'entrée d'un neurone représente un gradient à calculer pour chaque batch d'entrée à chaque époque, moins il y en a plus ton réseau apprendra vite.
Ok donc l'intérêt c'est faire apprendre plus vite car moins de gradient à calculer
Mais du coup on sacrifie de la performance? Ou vu qu'il apprend plsu vite il est + performant?
Je pense pas que tu puisses en attendre de meilleures performances en terme de qualité de prédiction.
Par contre, en performance en terme de rapidité d'entrainement, tu y gagnes.Ce qu'il faut que tu comprennes, c'est que le deep learning, c'est surtout expérimental.
On a une idée, on la teste, si ça marche pas tant pis, sinon tant mieux.Généralement ça prend combien de temps à entrainer un réseau? avec quelle puissance? de façon classique on va dire
Tout dépend du réseau. Par contre si tu t'y intéresses vraiment khey je te donne un bon conseil, achète-toi un bon PC de gamer avec un GPU nvidia.
Tu pourras jouer à des super FPS et en plus tu as ce qu'on appelle Cuda, tu utilises la carte graphique pour entraîner ton réseau et ça va infiniment plus vite.
Ah, et niveau outils, je te conseille vivement d'utiliser jupyterlab pour coder.
J'ai un pc correct heureusement
Cuda j'ai vite vu ce que c'était pendant que je cherchais quoi installer mais j'ai pas trop compris
Ah bah faut savoir l'autre khey déconseille, il apporte quoi de plus? sachant que j'ai déjà test c'est trop bizarre avec les cellulesTout le monde utilise ça en ML. N'écoute pas l'autre qui te conseille d'utiliser vim, c'est un troll, Vim c'est un éditeur pour les puristes de la console sous Linux qui est pas intuitif du tout et ça te prend des mois avant de savoir l'exécuter.
L'avantage avec les cellules c'est que tu peux afficher facilement des graphes, des tables... Bref tout ce dont un bon statisticien a besoin. Car oui, un ingé ML est un statisticien avant tout.
Non, Pycharm c'est un éditeur de code pour les gros projets, si tu veux exécuter des notebooks dedans tu peux mais faut raquer la version payante.
ah putain ils font chier ya quoi qui permet de coder mais voir des graphiques
( à part un truc à cellule)Bah le truc à cellule. En théorie tu peux afficher des graphes avec un éditeur de code python (genre pyzo). Tu peux aussi vider la mer avec une petite cuiller en théorie.
Franchement jupyter ça plait vraiment pas
Si ya moyen d'avoir des graph avec pycharm c'est tout bon je vois pas le problème
Le 27 avril 2022 à 21:36:30 :
Le 27 avril 2022 à 21:34:52 ploud4 a écrit :
Le 27 avril 2022 à 21:32:40 :
Le 27 avril 2022 à 21:28:20 Peil a écrit :
Le 27 avril 2022 à 20:54:28 :
- Dans les models chaque neurons d'une couche sont reliés à tous les autres neurons de la coucheX+1, mais est ce qu'on pourrait pas faire un nombre de connexions aléatoires? ça a un intérêt? un nom?- Apparemment ya des réseaux où une couche saute la coucheX+1 pour aller sur une autre encore plus loin, encore : nom ? intérêt?
- Le meilleur système pour du deeplearning en finance (analyse de chart et prédiction) c'est quoi? CNN? LSTMN?
Je travaille dans le domaine et je ne peux répondre à aucune de tes questions
Le 27 avril 2022 à 21:30:53 Peil a écrit :
Ah et oui, Jupyter Notebook c'est la vie hein. Je détestais ça en école d'ingé car je savais pas l'utiliser, mais en fait à partir du moment où t'as passé un peu de temps dessus tu ne peux juste plus t'en passerLe 27 avril 2022 à 21:30:53 Peil a écrit :
Ah et oui, Jupyter Notebook c'est la vie hein. Je détestais ça en école d'ingé car je savais pas l'utiliser, mais en fait à partir du moment où t'as passé un peu de temps dessus tu ne peux juste plus t'en passerJe vais voir du coup, déjà pycharm marche je vais pas tenter le diable à recommencer, j'ai mis un bon bout de temps à faire marcher vu que ya jamais rien qui marche avec l'informatique de merde
Mec abandonne Pycharm, ce truc est infiniment compliqué et tu vas devenir zinzin avant de maîtriser toutes ses fonctionnalités. Moi j'ai fait une école d'ingé et je suis spécialisé en ML et je sais pas toutes les utiliser. Tu connais Git au moins ?
Utilise jupyterlab ou jupyter notebook la version de base. Rien d'autre.
Mais coder sur du web bordel c'est poubelle
Ya pas un entre deux? jupyter + pycharm?
Mec arrête d'insulter cette application, c'est ZE référence dans le monde du machine learning. Même Google s'en sert. Si le navigateur te dérange, désinstalle internet explorer et installe un vrai navigateur. Sinon tu as l'appli de bureau jupyterlab.
Alors arrête de te plaindre et essaye un peu d'apprendre à maîtriser Jupyter Notebook. Si tu te décourages aussi facilement tu vas jamais réussir à apprendre quoi que ce soit en deep learning, c'est pas un sujet facile et tu mets des mois avant de comprendre ce que tu fais. Mais tu as l'air motivé, alors je te le dis : persévère !
C'est une vraie plaie à installer, aucun tuto valable pour le faire.
Et à lancer, jupyterlab :nez:
Le 27 avril 2022 à 20:54:28 :
- Dans les models chaque neurons d'une couche sont reliés à tous les autres neurons de la coucheX+1, mais est ce qu'on pourrait pas faire un nombre de connexions aléatoires? ça a un intérêt? un nom?- Apparemment ya des réseaux où une couche saute la coucheX+1 pour aller sur une autre encore plus loin, encore : nom ? intérêt?
si ça va vers la couche x+2 ça existe oui, ça s'appelle une couche résiduelle (d'où le nom resnet : residual network)
en gros ça permet de limiter la profondeur apparente de ton réseau, et de laisser la possibilité au réseau de conserver des infos proches du signal qui pourraient être très importantes (sans payer trop cher en régularisation)
- Le meilleur système pour du deeplearning en finance (analyse de chart et prédiction) c'est quoi? CNN? LSTMN?
CNN ne s'oppose pas à LSTM. CNN désigne un NN qui intègre une couche de convolution, ce qui peut tout à fait avoir lieu dans la partie input de la structure d'un réseau récurrent comme un LSTM
y'a pas vraiment de lib qui se démarque entre tensorflow et torch, soit disant torch serait plus pratique pour faire des xp avec des archis un peu originales en recherche et tensorflow serait plus pratique pour l'inférence & la mise en prod, mais c'est un peu daté comme opposition, les deux libs ont pallié leurs points faibles respectifs depuis un moment maintenant
Le 27 avril 2022 à 21:44:12 :
Ca dit "installe jupyter" mais ça ne sait pas comment l'installer avec support GPU, je vois le genre, tu te fais troller l'OP.
C'est une vraie plaie à installer, aucun tuto valable pour le faire.
Et à lancer, jupyterlab :nez:
Mec moi j'ai jamais eu de problème pour avoir le support GPU.
Tu exécutes :
import torch
print(torch.cuda.is_available())
Pour installer Jupyter le plus facile c'est d'utiliser pip. Ou d'installer anaconda (livré avec).
Le 27 avril 2022 à 21:45:28 Banclistologue a écrit :
Le 27 avril 2022 à 20:54:28 :
- Dans les models chaque neurons d'une couche sont reliés à tous les autres neurons de la coucheX+1, mais est ce qu'on pourrait pas faire un nombre de connexions aléatoires? ça a un intérêt? un nom?- Apparemment ya des réseaux où une couche saute la coucheX+1 pour aller sur une autre encore plus loin, encore : nom ? intérêt?
si ça va vers la couche x+2 ça existe oui, ça s'appelle une couche résiduelle (d'où le nom resnet : residual network)
en gros ça permet de limiter la profondeur apparente de ton réseau, et de laisser la possibilité au réseau de conserver des infos proches du signal qui pourraient être très importantes (sans payer trop cher en régularisation)- Le meilleur système pour du deeplearning en finance (analyse de chart et prédiction) c'est quoi? CNN? LSTMN?
CNN ne s'oppose pas à LSTM. CNN désigne un NN qui intègre une couche de convolution, ce qui peut tout à fait avoir lieu dans la partie input de la structure d'un réseau récurrent comme un LSTM
y'a pas vraiment de lib qui se démarque entre tensorflow et torch, soit disant torch serait plus pratique pour faire des xp avec des archis un peu originales en recherche et tensorflow serait plus pratique pour l'inférence & la mise en prod, mais c'est un peu daté comme opposition, les deux libs ont pallié leurs points faibles respectifs depuis un moment maintenant
Le 27 avril 2022 à 21:45:32 :
Le 27 avril 2022 à 21:44:12 :
Ca dit "installe jupyter" mais ça ne sait pas comment l'installer avec support GPU, je vois le genre, tu te fais troller l'OP.
C'est une vraie plaie à installer, aucun tuto valable pour le faire.
Et à lancer, jupyterlab :nez:Mec moi j'ai jamais eu de problème pour avoir le support GPU.
Tu exécutes :
import torch
print(torch.cuda.is_available())Pour installer Jupyter le plus facile c'est d'utiliser pip. Ou d'installer anaconda (livré avec).
Je veux pas de pytorch, je veux du tensorflow
J'ai déjà tensorflow avec support GPU, effectivement, je viens d'installer jupyterlab, mais je vois pas en quoi ça gêne de coder sous idle, tout dans un seul fichier, non commenté
Le 27 avril 2022 à 21:47:17 ploud4 a écrit :
Le 27 avril 2022 à 21:46:00 :
je sais pas qui croire bordel
je veux juste des graphBah teste.
C'est le seul moyen de savoir quand tu fais du ML.
ça me plait ça try and error
Au fait à propos des "neurons"
Si je devais coder ça avec mon savoir actuel je ferais une variable pour chaque neurone, j'imagine que c'est le pire truc à faire
j'ai vu que ça utilise des matrices, tout le réseau tient dans une seule matrice ?
Sortie du neurone = f( X.Y +b) c'est tout con.
Données du topic
- Auteur
- HunterChasseur
- Date de création
- 27 avril 2022 à 20:54:28
- Nb. messages archivés
- 257
- Nb. messages JVC
- 245