Topic de LnDeTroie :

"GNEUGNEU je suis DATA SCIENTIST je DOIS trouver le minimum GLOBAL""

J'ai une page wikipedia sur l'alphabet Grec ouverte en permanence pour suivre ma formation, c'est mauvais signe ou pas ? https://image.noelshack.com/fichiers/2017/30/4/1501186885-risitasueurbestreup.png

Le 10 avril 2021 à 21:03:43 :

Le 10 avril 2021 à 21:00:37 :

Le 10 avril 2021 à 19:52:52 :
"kNN c'est à chier et c'est naïf"

"Y a aucune garantie théorique à un NN"

OK Pucelin https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

J'ai pas lu le reste du topic mais aux dernières nouvelles les réseaux de neurones niveau théorie à part des travaux sur des cas très spécifiques on est loin du compte. Non?

https://fr.m.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d'approximation_universelle https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Ça concerne des réseaux avec une seule couche cachée et ça ne donne aucune garantie quant à la généralisation du réseau de ce que j'ai compris. Ça dit juste que le réseau peut potentiellement approximation toute fonction sur un compact, mais rien sur la fonction qu'il finira par choisir après l'entraînement. :(

Es-tu en thèse l'auteur ?

Travailler en startup c'est avoir renoncé à être un mâle alpha https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Travailler sur de l'info plutôt que des maths c'est avoir renoncé à sa liberté https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Préférer un algorithme à un autre pour tous les problèmes c'est avoir renoncé à tout bon sens https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Le 10 avril 2021 à 21:06:55 :
J'ai une page wikipedia sur l'alphabet Grec ouverte en permanence pour suivre ma formation, c'est mauvais signe ou pas ? https://image.noelshack.com/fichiers/2017/30/4/1501186885-risitasueurbestreup.png

Non, c'est normal https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Le 10 avril 2021 à 21:07:58 :

Le 10 avril 2021 à 21:03:43 :

Le 10 avril 2021 à 21:00:37 :

Le 10 avril 2021 à 19:52:52 :
"kNN c'est à chier et c'est naïf"

"Y a aucune garantie théorique à un NN"

OK Pucelin https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

J'ai pas lu le reste du topic mais aux dernières nouvelles les réseaux de neurones niveau théorie à part des travaux sur des cas très spécifiques on est loin du compte. Non?

https://fr.m.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d'approximation_universelle https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Ça concerne des réseaux avec une seule couche cachée et ça ne donne aucune garantie quant à la généralisation du réseau de ce que j'ai compris. Ça dit juste que le réseau peut potentiellement approximation toute fonction sur un compact, mais rien sur la fonction qu'il finira par choisir après l'entraînement. :(

La fonction dépend de l'optimiseur https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Si l'optimiseur est très bon il trouvera une fonction dont les paramètres permettent d'approcher le minimum global de la perte https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Voir les résultats passionnants en optimisation non convexe et non lisse https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Le 10 avril 2021 à 21:08:22 :
Es-tu en thèse l'auteur ?

C'est exact https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Au fait, peux-tu préciser pourquoi tu dis que Lê n'a pas compris la p-value ?

Le 10 avril 2021 à 21:10:51 :

Le 10 avril 2021 à 21:08:22 :
Es-tu en thèse l'auteur ?

C'est exact https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Quelle année ? Ca se passe comment les TD avec les facs fermées, t'es payé quand même ou tu perds les ~300€/mois ?

Le 10 avril 2021 à 21:05:06 :

Le 10 avril 2021 à 21:01:02 :

Le 10 avril 2021 à 20:57:11 :

Le 10 avril 2021 à 20:53:05 :

Le 10 avril 2021 à 20:37:12 :

Le 10 avril 2021 à 20:35:07 :
On peut passer d'un M1 MIDS au MVA ?
Quels sont les M1 à faire pour aller en M2 MVA ? (maths et/ou info je sais mais lesquels ?)

M1 mids: https://master.math.univ-paris-diderot.fr/annee/m1-mi/

M1 à UPMC, Saclay ou Dauphine https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Diderot c'est OK si tu choppes 17 de moyenne https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Ya Descartes qui marche aussi mais faut être dans le top deux de la promo

Édit : tu penses quoi du MMA de Descartes d'ailleurs, c'est pas vraiment de l'IA plus de l'image par contre :(

Bien pour pratiquer sur le ring, moins bien pour faire des maths sérieuses https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Non sans rigoler, ca reste très bien et largement suffisant à condition d'être passionné https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Ayaaa https://image.noelshack.com/fichiers/2021/11/1/1615833199-enormeculmanger.png
Ya vraiment des X/ENS qui trouvent rien après leur bullshut diplôme ? https://image.noelshack.com/fichiers/2021/11/1/1615833199-enormeculmanger.png

Oui https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

La sélection est, et restera naturelle, en effet. Et pourtant si près du but.
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png

Sinon on en parle des golems qui veulent faire de l'IA ou de finance quantitative, pour seul prétexte que ça marche bien et que c'est a la mode. https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png
Sérieux, les profs du MVA par exemple, quand ils étaient eux même étudiant dans les années 90, est ce qu'ils se sont dirigés vers l'IA parceque c'était à la mode ?

Le 10 avril 2021 à 21:11:07 :
Au fait, peux-tu préciser pourquoi tu dis que Lê n'a pas compris la p-value ?

C'est un peu abusif de ma part, mais quand j'avais regardé sa vidéo sur demande d'un de mes étudiants, il aborde le concept d'une manière très suspecte bien qu'il donne la bonne définition à un moment. En gros, au cours de sa diatribe, il y a + ou - une contradiction https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Le 10 avril 2021 à 21:10:29 :

Le 10 avril 2021 à 21:07:58 :

Le 10 avril 2021 à 21:03:43 :

Le 10 avril 2021 à 21:00:37 :

Le 10 avril 2021 à 19:52:52 :
"kNN c'est à chier et c'est naïf"

"Y a aucune garantie théorique à un NN"

OK Pucelin https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

J'ai pas lu le reste du topic mais aux dernières nouvelles les réseaux de neurones niveau théorie à part des travaux sur des cas très spécifiques on est loin du compte. Non?

https://fr.m.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d'approximation_universelle https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Ça concerne des réseaux avec une seule couche cachée et ça ne donne aucune garantie quant à la généralisation du réseau de ce que j'ai compris. Ça dit juste que le réseau peut potentiellement approximation toute fonction sur un compact, mais rien sur la fonction qu'il finira par choisir après l'entraînement. :(

La fonction dépend de l'optimiseur https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Si l'optimiseur est très bon il trouvera une fonction dont les paramètres permettent d'approcher le minimum global de la perte https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Voir les résultats passionnants en optimisation non convexe et non lisse https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Oui mais le souci n'est pas tant d'approcher le minimum global de la perte du dataset d'entraînement que de s'assurer que cette perte minimal pourra être généralisé sur un dataset de test.

Il y'a beaucoup de travaux récents sur le sujet mais on est encore loin de la solution :hap:

Le 10 avril 2021 à 21:11:43 :

Le 10 avril 2021 à 21:10:51 :

Le 10 avril 2021 à 21:08:22 :
Es-tu en thèse l'auteur ?

C'est exact https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Quelle année ? Ca se passe comment les TD avec les facs fermées, t'es payé quand même ou tu perds les ~300€/mois ?

Je suis très bien payé, je fais ma thèse CIFRE dans un organisme de la défense https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Le 10 avril 2021 à 21:13:32 :

Le 10 avril 2021 à 21:10:29 :

Le 10 avril 2021 à 21:07:58 :

Le 10 avril 2021 à 21:03:43 :

Le 10 avril 2021 à 21:00:37 :

Le 10 avril 2021 à 19:52:52 :
"kNN c'est à chier et c'est naïf"

"Y a aucune garantie théorique à un NN"

OK Pucelin https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

J'ai pas lu le reste du topic mais aux dernières nouvelles les réseaux de neurones niveau théorie à part des travaux sur des cas très spécifiques on est loin du compte. Non?

https://fr.m.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d'approximation_universelle https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Ça concerne des réseaux avec une seule couche cachée et ça ne donne aucune garantie quant à la généralisation du réseau de ce que j'ai compris. Ça dit juste que le réseau peut potentiellement approximation toute fonction sur un compact, mais rien sur la fonction qu'il finira par choisir après l'entraînement. :(

La fonction dépend de l'optimiseur https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Si l'optimiseur est très bon il trouvera une fonction dont les paramètres permettent d'approcher le minimum global de la perte https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Voir les résultats passionnants en optimisation non convexe et non lisse https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Oui mais le souci n'est pas tant d'approcher le minimum global de la perte du dataset d'entraînement que de s'assurer que cette perte minimal pourra être généralisé sur un dataset de test.

Il y'a beaucoup de travaux récents sur le sujet mais on est encore loin de la solution :hap:

C'est exact, comme je le précise dans le titre https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Si ton nombre d'individus est infini tu n'as néanmoins pas besoin de tester l'algo, stat fréq oblige https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Le 10 avril 2021 à 21:11:59 :

Le 10 avril 2021 à 21:05:06 :

Le 10 avril 2021 à 21:01:02 :

Le 10 avril 2021 à 20:57:11 :

Le 10 avril 2021 à 20:53:05 :

Le 10 avril 2021 à 20:37:12 :

Le 10 avril 2021 à 20:35:07 :
On peut passer d'un M1 MIDS au MVA ?
Quels sont les M1 à faire pour aller en M2 MVA ? (maths et/ou info je sais mais lesquels ?)

M1 mids: https://master.math.univ-paris-diderot.fr/annee/m1-mi/

M1 à UPMC, Saclay ou Dauphine https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Diderot c'est OK si tu choppes 17 de moyenne https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Ya Descartes qui marche aussi mais faut être dans le top deux de la promo

Édit : tu penses quoi du MMA de Descartes d'ailleurs, c'est pas vraiment de l'IA plus de l'image par contre :(

Bien pour pratiquer sur le ring, moins bien pour faire des maths sérieuses https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Non sans rigoler, ca reste très bien et largement suffisant à condition d'être passionné https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Ayaaa https://image.noelshack.com/fichiers/2021/11/1/1615833199-enormeculmanger.png
Ya vraiment des X/ENS qui trouvent rien après leur bullshut diplôme ? https://image.noelshack.com/fichiers/2021/11/1/1615833199-enormeculmanger.png

Oui https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

La sélection est, et restera naturelle, en effet. Et pourtant si près du but.
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png

Sinon on en parle des golems qui veulent faire de l'IA ou de finance quantitative, pour seul prétexte que ça marche bien et que c'est a la mode. https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png
Sérieux, les profs du MVA par exemple, quand ils étaient eux même étudiant dans les années 90, est ce qu'ils se sont dirigés vers l'IA parceque c'était à la mode ?

On en parle pas assez, mais ils vont être sélectionnés et dépressifs/suicidés https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Le 10 avril 2021 à 21:15:05 :

Le 10 avril 2021 à 21:13:32 :

Le 10 avril 2021 à 21:10:29 :

Le 10 avril 2021 à 21:07:58 :

Le 10 avril 2021 à 21:03:43 :

Le 10 avril 2021 à 21:00:37 :

Le 10 avril 2021 à 19:52:52 :
"kNN c'est à chier et c'est naïf"

"Y a aucune garantie théorique à un NN"

OK Pucelin https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

J'ai pas lu le reste du topic mais aux dernières nouvelles les réseaux de neurones niveau théorie à part des travaux sur des cas très spécifiques on est loin du compte. Non?

https://fr.m.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d'approximation_universelle https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Ça concerne des réseaux avec une seule couche cachée et ça ne donne aucune garantie quant à la généralisation du réseau de ce que j'ai compris. Ça dit juste que le réseau peut potentiellement approximation toute fonction sur un compact, mais rien sur la fonction qu'il finira par choisir après l'entraînement. :(

La fonction dépend de l'optimiseur https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Si l'optimiseur est très bon il trouvera une fonction dont les paramètres permettent d'approcher le minimum global de la perte https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Voir les résultats passionnants en optimisation non convexe et non lisse https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Oui mais le souci n'est pas tant d'approcher le minimum global de la perte du dataset d'entraînement que de s'assurer que cette perte minimal pourra être généralisé sur un dataset de test.

Il y'a beaucoup de travaux récents sur le sujet mais on est encore loin de la solution :hap:

C'est exact, comme je le précise dans le titre https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Si ton nombre d'individus est infini tu n'as néanmoins pas besoin de tester l'algo, stat fréq oblige https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Sinon tu comptes continuer en France post-doc? Rester en académie ou tenter une GAFAM/Nvidia/etc.?

l'auteur c'est quoi ton cursus ? + t'es dans quel fac jss en M1 maths app

Le 10 avril 2021 à 21:17:07 :

Le 10 avril 2021 à 21:15:05 :

Le 10 avril 2021 à 21:13:32 :

Le 10 avril 2021 à 21:10:29 :

Le 10 avril 2021 à 21:07:58 :

Le 10 avril 2021 à 21:03:43 :

Le 10 avril 2021 à 21:00:37 :

Le 10 avril 2021 à 19:52:52 :
"kNN c'est à chier et c'est naïf"

"Y a aucune garantie théorique à un NN"

OK Pucelin https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

J'ai pas lu le reste du topic mais aux dernières nouvelles les réseaux de neurones niveau théorie à part des travaux sur des cas très spécifiques on est loin du compte. Non?

https://fr.m.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d'approximation_universelle https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Ça concerne des réseaux avec une seule couche cachée et ça ne donne aucune garantie quant à la généralisation du réseau de ce que j'ai compris. Ça dit juste que le réseau peut potentiellement approximation toute fonction sur un compact, mais rien sur la fonction qu'il finira par choisir après l'entraînement. :(

La fonction dépend de l'optimiseur https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Si l'optimiseur est très bon il trouvera une fonction dont les paramètres permettent d'approcher le minimum global de la perte https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Voir les résultats passionnants en optimisation non convexe et non lisse https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Oui mais le souci n'est pas tant d'approcher le minimum global de la perte du dataset d'entraînement que de s'assurer que cette perte minimal pourra être généralisé sur un dataset de test.

Il y'a beaucoup de travaux récents sur le sujet mais on est encore loin de la solution :hap:

C'est exact, comme je le précise dans le titre https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Si ton nombre d'individus est infini tu n'as néanmoins pas besoin de tester l'algo, stat fréq oblige https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Sinon tu comptes continuer en France post-doc? Rester en académie ou tenter une GAFAM/Nvidia/etc.?

Bien sûr que je continuerai en France https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Partir à l'étranger est un rêve de futur dreamer qui n'a ni passion ni foi en des valeurs https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Et pourtant les offres abondent, mais jamais je ne trahirai ce pays, bien que je regrette son évolution https://image.noelshack.com/fichiers/2020/50/7/1607898411-selectionnaturellelepnj2.png

Enfin un bon topic de matheux sur l'IA, ça fait plaisir à voir, ça cite même F.Chazal (ce gros fou) :rire:
AutoGluon écrase ton topic de pseudo élitiste :rire:

Données du topic

Auteur
LnDeTroie
Date de création
10 avril 2021 à 19:51:35
Nb. messages archivés
927
Nb. messages JVC
916
En ligne sur JvArchive 256