"GNEUGNEU je suis DATA SCIENTIST je DOIS trouver le minimum GLOBAL""
Le 12 avril 2021 à 09:52:50 :
Le 12 avril 2021 à 09:51:07 :
Le 12 avril 2021 à 09:48:56 :
Le 12 avril 2021 à 09:46:17 :
Le 12 avril 2021 à 09:45:01 :
Le 12 avril 2021 à 09:40:47 :
Le 12 avril 2021 à 09:36:46 :
Le 12 avril 2021 à 09:35:51 :
Le 12 avril 2021 à 09:29:33 :
Le 12 avril 2021 à 09:25:52 :
Le 12 avril 2021 à 09:22:17 :
Le 12 avril 2021 à 09:20:29 :
Le 10 avril 2021 à 20:04:30 :
"Le non supervisé ça sert à rien"Ne pas avoir compris que l'humain classe lui-même a priori les éléments de manière non supervisée, et que la vie est une recherche permanente de bonnes métriques de classification
Ne pas savoir parler français. Humain l'adjectif de l'homme. Tu dois donc dit "l'homme classe..."
Humain est aussi un nom le golem
Et au demeurant, j'ai écrit 30 pages donc même s'il s'agissait d'une erreur, fous-moi la paix homme d'argile
Faux, c'est une faute commune aujourd'hui. C'est pour cela qu'on dit parfois être humain. Car humain est uniquement un adjectif. Ce n'est pas parce qu'une faute est commune que ça rend acceptable, sinon malgré que le serait .
L'opax qui n'a pas lu la page avant de poster le lien
Il faut descendre ahurin, j'ai eu la même mais l'OP à RAISON
C'est juste une utilisation de l'adjectif en substantif, comme si tu dis "je veux un bleu" en parlant de cahiers bleus. Mais ça reste un adjectif et tu as un nom commun associé, mais osef l'IA c'est plus intéressant
"Je veux une mie" pour "Je veux du pain de mie" tu connais ?
Sauf que mie dans cette phrase n'est pas un adjectif, on dit "je veux de la mie" j'espère que vous trollez bordel . Tu peux dire aussi "je veux la mie" si tu considères le pain séparé en la croûte et la mie. Mais stop on arrête là .
Si l'académie française a validé son utilisation comme un adjectif non-substantif le golem
mais
franchement reste dans ton domaine hein
Le 12 avril 2021 à 09:53:39 :
Le 12 avril 2021 à 09:49:03 :
Le 12 avril 2021 à 09:47:14 :
Le 12 avril 2021 à 09:46:39 :
Le 12 avril 2021 à 09:45:54 :
L'auteur c'est quoi ton niveau réel dans les maths dont tu parles ? Car en précis j'ai juste vu "bayésien" mais ça c'est du niveau L3Bah donne un exemple rapide khey
Optimisation non convexe et non lisse, apprentissage par renforcement, théorie des graphes
Apprentissage par renforcement, c'est quoi le concept mathématique clé, général et indépendant de l'IA ? comme je demandais des maths
comme partout en info, comprendre les concepts et savoir comment ça marche ça suffit
pour l'apprentissage faut regarder du côté du perceptron voir les équations qui expriment les neurones il me semble
Le 12 avril 2021 à 09:55:46 :
Le 12 avril 2021 à 09:53:39 :
Le 12 avril 2021 à 09:49:03 :
Le 12 avril 2021 à 09:47:14 :
Le 12 avril 2021 à 09:46:39 :
Le 12 avril 2021 à 09:45:54 :
L'auteur c'est quoi ton niveau réel dans les maths dont tu parles ? Car en précis j'ai juste vu "bayésien" mais ça c'est du niveau L3Bah donne un exemple rapide khey
Optimisation non convexe et non lisse, apprentissage par renforcement, théorie des graphes
Apprentissage par renforcement, c'est quoi le concept mathématique clé, général et indépendant de l'IA ? comme je demandais des maths
comme partout en info, comprendre les concepts et savoir comment ça marche ça suffit
pour l'apprentissage faut regarder du côté du perceptron voir les équations qui expriment les neurones il me semble
Non, c'est le principe de programmation dynamique, qui permet d'en déduire l'équation de Hamilton Jacobi Bellman, que ce soit en temps discret et horizon infini (le cas de l'apprentissage par renforcement) ou dans d'autres cadres (continue amène à une EDP, horizon fini se passe de l'actualisation et intègre une condition terminale et le temps et ça change l'approche numérique).
Le 12 avril 2021 à 09:53:39 :
Le 12 avril 2021 à 09:49:03 :
Le 12 avril 2021 à 09:47:14 :
Le 12 avril 2021 à 09:46:39 :
Le 12 avril 2021 à 09:45:54 :
L'auteur c'est quoi ton niveau réel dans les maths dont tu parles ? Car en précis j'ai juste vu "bayésien" mais ça c'est du niveau L3Bah donne un exemple rapide khey
Optimisation non convexe et non lisse, apprentissage par renforcement, théorie des graphes
Apprentissage par renforcement, c'est quoi le concept mathématique clé, général et indépendant de l'IA ? comme je demandais des maths
Ça repose sur les algorithmes Q-learning/SARSA/Value iteration/policy iteration
On peut montrer que certains de ces algorithmes convergent vers une décision optimale pour n'importe quel problème avec temps infini et mémoire infinie. C'est les meilleurs algos pour des petits problèmes quand les états et transitions sont discrets et déterministes. Les bases mathématiques sont disponibles librement sur la page du master DAC. Attention, les premiers cours sont faciles, après ca se corse
Après du coup, il y a des extensions à la théorie des jeux et au cas non discret, surtout par NN
Le " reward shaping" permet de faciliter le cheminement entre les états pour éviter d'aller chercher trop loin.
: Voyez vous, la datascience est avant tout un etat d'esprit. Il ne me sied guere de m'epancher sur des "slides". Laissez moi dans mom bureau pour rediger un article sur Latex.
: Mais Ffforentin on est en open space, ta pas de bureau.On arrive pas a implementer le pickle, ca met trop de temps et on a eu u soucis avec le SL.A On a prefere avoir quelques hard rules apparement ca marche aussi bien on a pas besoin d'un truc tres precis. On voulait juste voir si ca collait plus ou moins avec ton model.
: .... Je vois mon travail est bien trop sophistique pour le commun des mortels.
: Euh je suis que stagiaire mais je sais vite fait comment me servir XGboost j'ai fait un kaggle a la fac une fois.
: ohohoh....XGBoost malheureux, et le parameter tunning, comment vas-tu faire? Et XGboost a tendance a overfitte sur ce genre de training set ohohoh
: Vas-y EnzFffo, toute facon ce sera toujours mieux que rien et c'est juste pour marketing Ff'est pas critical d'avoir un truc tres precis. J'ai dit a Ffforentin qu'on a pas acces a ces donnees la en prod mais il a dit qu'il a besoin de 3 semaines pour repickle le model.
: ohohoh les misereux, j me regele du spectacle depuis ma tour d'ivoir.
: Super les mecs, nickel votre truc. nos sales sont un peux trop con pour piger a quoi ca correspond mais je pense ca les aide pour demarcher des clients.
Chay nous on la fait, Corentin il est torp chelou on arrive pas a communiquer avec lui.
Le 12 avril 2021 à 09:55:29 :
J’ai un entretien pour un stage dans une grosse boite aux states. Ta des conseils kheyou?
Je n'ai jamais candidaté à l'étranger, mais il faut connaître tous les algorithmes de ML, être capable de parler de DL RL etc
Poser des questions et connaître le sujet et les articles de recherche très cités qui lui sont liés est primordial
Le 12 avril 2021 à 10:06:25 :
: Voyez vous, la datascience est avant tout un etat d'esprit. Il ne me sied guere de m'epancher sur des "slides". Laissez moi dans mom bureau pour rediger un article sur Latex.: Mais Ffforentin on est en open space, ta pas de bureau.On arrive pas a implementer le pickle, ca met trop de temps et on a eu u soucis avec le SL.A On a prefere avoir quelques hard rules apparement ca marche aussi bien on a pas besoin d'un truc tres precis. On voulait juste voir si ca collait plus ou moins avec ton model.
: .... Je vois mon travail est bien trop sophistique pour le commun des mortels.
: Euh je suis que stagiaire mais je sais vite fait comment me servir XGboost j'ai fait un kaggle a la fac une fois.
: ohohoh....XGBoost malheureux, et le parameter tunning, comment vas-tu faire? Et XGboost a tendance a overfitte sur ce genre de training set ohohoh
: Vas-y EnzFffo, toute facon ce sera toujours mieux que rien et c'est juste pour marketing Ff'est pas critical d'avoir un truc tres precis. J'ai dit a Ffforentin qu'on a pas acces a ces donnees la en prod mais il a dit qu'il a besoin de 3 semaines pour repickle le model.
: ohohoh les misereux, j me regele du spectacle depuis ma tour d'ivoir.
: Super les mecs, nickel votre truc. nos sales sont un peux trop con pour piger a quoi ca correspond mais je pense ca les aide pour demarcher des clients.
Chay nous on la fait, Corentin il est torp chelou on arrive pas a communiquer avec lui.
Tout ces efforts pour que je te réponde que RuleFit, NodeHarvest et SIRUS sont explicables et seront toujours infiniment meilleurs que ton modèle claqué à la main. Même un simple arbre de décision est meilleur
Le 12 avril 2021 à 10:04:32 :
Le 12 avril 2021 à 09:53:39 :
Le 12 avril 2021 à 09:49:03 :
Le 12 avril 2021 à 09:47:14 :
Le 12 avril 2021 à 09:46:39 :
Le 12 avril 2021 à 09:45:54 :
L'auteur c'est quoi ton niveau réel dans les maths dont tu parles ? Car en précis j'ai juste vu "bayésien" mais ça c'est du niveau L3Bah donne un exemple rapide khey
Optimisation non convexe et non lisse, apprentissage par renforcement, théorie des graphes
Apprentissage par renforcement, c'est quoi le concept mathématique clé, général et indépendant de l'IA ? comme je demandais des maths
Ça repose sur les algorithmes Q-learning/SARSA/Value iteration/policy iteration
On peut montrer que certains de ces algorithmes convergent vers une décision optimale pour n'importe quel problème avec temps infini et mémoire infinie. C'est les meilleurs algos pour des petits problèmes quand les états et transitions sont discrets et déterministes. Les bases mathématiques sont disponibles librement sur la page du master DAC. Attention, les premiers cours sont faciles, après ca se corse
Après du coup, il y a des extensions à la théorie des jeux et au cas non discret, surtout par NN
Le " reward shaping" permet de faciliter le cheminement entre les états pour éviter d'aller chercher trop loin.
T'es déjà le nez dans le guidon, le concept général que tu permet ça c'est le principe de programmation dynamique (celui qui découpe un intervalle d'optimisation en deux étapes), et les équations que tu obtiens, que ce soit discret ou continue, à partir de ce principe, c'est ce qu'on appelle les équations d'Hamilton Jacobi Bellman. Ce que tu décris c'est déjà du renforcement, donc un axe très précis.
Je vois que tu n'as pas la vision d'ensemble, naturelle sera ta sélection
Le 12 avril 2021 à 10:18:45 :
Le 12 avril 2021 à 10:04:32 :
Le 12 avril 2021 à 09:53:39 :
Le 12 avril 2021 à 09:49:03 :
Le 12 avril 2021 à 09:47:14 :
Le 12 avril 2021 à 09:46:39 :
Le 12 avril 2021 à 09:45:54 :
L'auteur c'est quoi ton niveau réel dans les maths dont tu parles ? Car en précis j'ai juste vu "bayésien" mais ça c'est du niveau L3Bah donne un exemple rapide khey
Optimisation non convexe et non lisse, apprentissage par renforcement, théorie des graphes
Apprentissage par renforcement, c'est quoi le concept mathématique clé, général et indépendant de l'IA ? comme je demandais des maths
Ça repose sur les algorithmes Q-learning/SARSA/Value iteration/policy iteration
On peut montrer que certains de ces algorithmes convergent vers une décision optimale pour n'importe quel problème avec temps infini et mémoire infinie. C'est les meilleurs algos pour des petits problèmes quand les états et transitions sont discrets et déterministes. Les bases mathématiques sont disponibles librement sur la page du master DAC. Attention, les premiers cours sont faciles, après ca se corse
Après du coup, il y a des extensions à la théorie des jeux et au cas non discret, surtout par NN
Le " reward shaping" permet de faciliter le cheminement entre les états pour éviter d'aller chercher trop loin.
T'es déjà le nez dans le guidon, le concept général que tu permet ça c'est le principe de programmation dynamique (celui qui découpe un intervalle d'optimisation en deux étapes), et les équations que tu obtiens, que ce soit discret ou continue, à partir de ce principe, c'est ce qu'on appelle les équations d'Hamilton Jacobi Bellman. Ce que tu décris c'est déjà du renforcement, donc un axe très précis.
Je vois que tu n'as pas la vision d'ensemble, naturelle sera ta sélection
Les équations de Bellman sont présentées slide 2 du DAC
C'est pas exactement ce qui constitue l'aboutissement de la recherche en la matière
Hello, je suis chef de projet, en RL.
Les maths du RL sont simples, niveau L3. Ce qui compte c'est d'être un bon software engineer. Les clients comprennent rien de toute façon et on ne vise pas les top confs.
Je suis Data scientist en alternance, le topic a l'aire intéressant, je vais lire.
Au vu des posts de l'auteur, je pense pas qu'il soit déja sorti de sa fac en dépit.
Le 12 avril 2021 à 10:20:55 :
Le 12 avril 2021 à 10:18:45 :
Le 12 avril 2021 à 10:04:32 :
Le 12 avril 2021 à 09:53:39 :
Le 12 avril 2021 à 09:49:03 :
Le 12 avril 2021 à 09:47:14 :
Le 12 avril 2021 à 09:46:39 :
Le 12 avril 2021 à 09:45:54 :
L'auteur c'est quoi ton niveau réel dans les maths dont tu parles ? Car en précis j'ai juste vu "bayésien" mais ça c'est du niveau L3Bah donne un exemple rapide khey
Optimisation non convexe et non lisse, apprentissage par renforcement, théorie des graphes
Apprentissage par renforcement, c'est quoi le concept mathématique clé, général et indépendant de l'IA ? comme je demandais des maths
Ça repose sur les algorithmes Q-learning/SARSA/Value iteration/policy iteration
On peut montrer que certains de ces algorithmes convergent vers une décision optimale pour n'importe quel problème avec temps infini et mémoire infinie. C'est les meilleurs algos pour des petits problèmes quand les états et transitions sont discrets et déterministes. Les bases mathématiques sont disponibles librement sur la page du master DAC. Attention, les premiers cours sont faciles, après ca se corse
Après du coup, il y a des extensions à la théorie des jeux et au cas non discret, surtout par NN
Le " reward shaping" permet de faciliter le cheminement entre les états pour éviter d'aller chercher trop loin.
T'es déjà le nez dans le guidon, le concept général que tu permet ça c'est le principe de programmation dynamique (celui qui découpe un intervalle d'optimisation en deux étapes), et les équations que tu obtiens, que ce soit discret ou continue, à partir de ce principe, c'est ce qu'on appelle les équations d'Hamilton Jacobi Bellman. Ce que tu décris c'est déjà du renforcement, donc un axe très précis.
Je vois que tu n'as pas la vision d'ensemble, naturelle sera ta sélection
Les équations de Bellman sont présentées slide 2 du DAC
C'est pas exactement ce qui constitue l'aboutissement de la recherche en la matière
Je ne dis pas que t'as jamais vu, t'as nécessairement vu, ce que je disais, c'est que t'as pas distingué le concept mathématique indépendant de l'IA et les algo de l'IA
principe de programmation dynamique et équations d'HJB ça n'a rien à voir avec l'IA, c'est juste une approche reprise par celle-ci où t'intègre le fléau de la dimension et l'exploration de l'espace, là où dans HJB classique tes lois sont parfaitement connues et tu résous en dimension raisonnable, et où le modèle est "parfait" dans un certain sens. Résoudre un HJB avec IA ce n'est pas résoudre un HJB, c'est approximer un HJB dans un cadre particulier.
Et résoudre parfaitement un HJB en petite dimension peut nourrir ton algo d'IA de renforcement en grande dimension, après avoir repéré les dimensions les plus importantes et fait un problème simplifié.
Mais fonce dans l'algo, tant que la musique tourne, tu peux danser, mais naturelle sera également ta sélection
Le 12 avril 2021 à 10:24:49 :
Hello, je suis chef de projet, en RL.Les maths du RL sont simples, niveau L3. Ce qui compte c'est d'être un bon software engineer. Les clients comprennent rien de toute façon et on ne vise pas les top confs.
Bah si tu travailles pour des clients qui n'y comprennent rien, effectivement t'as pas besoin d'avoir des flèches
Vous avez manquez les conf "Big Data" dans les domaine où y'avait pas ce genre de chose avant, c'était baratin sur baratin où tous les intervenant casaient 5 mots clés, et les gens trouvaient ça génial bien qu'ils n'avaient rien appris
Le 12 avril 2021 à 10:35:24 :
Le 12 avril 2021 à 10:20:55 :
Le 12 avril 2021 à 10:18:45 :
Le 12 avril 2021 à 10:04:32 :
Le 12 avril 2021 à 09:53:39 :
Le 12 avril 2021 à 09:49:03 :
Le 12 avril 2021 à 09:47:14 :
Le 12 avril 2021 à 09:46:39 :
Le 12 avril 2021 à 09:45:54 :
L'auteur c'est quoi ton niveau réel dans les maths dont tu parles ? Car en précis j'ai juste vu "bayésien" mais ça c'est du niveau L3Bah donne un exemple rapide khey
Optimisation non convexe et non lisse, apprentissage par renforcement, théorie des graphes
Apprentissage par renforcement, c'est quoi le concept mathématique clé, général et indépendant de l'IA ? comme je demandais des maths
Ça repose sur les algorithmes Q-learning/SARSA/Value iteration/policy iteration
On peut montrer que certains de ces algorithmes convergent vers une décision optimale pour n'importe quel problème avec temps infini et mémoire infinie. C'est les meilleurs algos pour des petits problèmes quand les états et transitions sont discrets et déterministes. Les bases mathématiques sont disponibles librement sur la page du master DAC. Attention, les premiers cours sont faciles, après ca se corse
Après du coup, il y a des extensions à la théorie des jeux et au cas non discret, surtout par NN
Le " reward shaping" permet de faciliter le cheminement entre les états pour éviter d'aller chercher trop loin.
T'es déjà le nez dans le guidon, le concept général que tu permet ça c'est le principe de programmation dynamique (celui qui découpe un intervalle d'optimisation en deux étapes), et les équations que tu obtiens, que ce soit discret ou continue, à partir de ce principe, c'est ce qu'on appelle les équations d'Hamilton Jacobi Bellman. Ce que tu décris c'est déjà du renforcement, donc un axe très précis.
Je vois que tu n'as pas la vision d'ensemble, naturelle sera ta sélection
Les équations de Bellman sont présentées slide 2 du DAC
C'est pas exactement ce qui constitue l'aboutissement de la recherche en la matière
Je ne dis pas que t'as jamais vu, t'as nécessairement vu, ce que je disais, c'est que t'as pas distingué le concept mathématique indépendant de l'IA et les algo de l'IA
principe de programmation dynamique et équations d'HJB ça n'a rien à voir avec l'IA, c'est juste une approche reprise par celle-ci où t'intègre le fléau de la dimension et l'exploration de l'espace, là où dans HJB classique tes lois sont parfaitement connues et tu résous en dimension raisonnable, et où le modèle est "parfait" dans un certain sens. Résoudre un HJB avec IA ce n'est pas résoudre un HJB, c'est approximer un HJB dans un cadre particulier.
Et résoudre parfaitement un HJB en petite dimension peut nourrir ton algo d'IA de renforcement en grande dimension, après avoir repéré les dimensions les plus importantes et fait un problème simplifié.
Mais fonce dans l'algo, tant que la musique tourne, tu peux danser, mais naturelle sera également ta sélection
En gros t'es en train de dire vaguement qu'on utilise des heuristiques pour un problème NP-complet
Le 12 avril 2021 à 10:37:48 :
Le 12 avril 2021 à 10:35:24 :
Le 12 avril 2021 à 10:20:55 :
Le 12 avril 2021 à 10:18:45 :
Le 12 avril 2021 à 10:04:32 :
Le 12 avril 2021 à 09:53:39 :
Le 12 avril 2021 à 09:49:03 :
Le 12 avril 2021 à 09:47:14 :
Le 12 avril 2021 à 09:46:39 :
Le 12 avril 2021 à 09:45:54 :
L'auteur c'est quoi ton niveau réel dans les maths dont tu parles ? Car en précis j'ai juste vu "bayésien" mais ça c'est du niveau L3Bah donne un exemple rapide khey
Optimisation non convexe et non lisse, apprentissage par renforcement, théorie des graphes
Apprentissage par renforcement, c'est quoi le concept mathématique clé, général et indépendant de l'IA ? comme je demandais des maths
Ça repose sur les algorithmes Q-learning/SARSA/Value iteration/policy iteration
On peut montrer que certains de ces algorithmes convergent vers une décision optimale pour n'importe quel problème avec temps infini et mémoire infinie. C'est les meilleurs algos pour des petits problèmes quand les états et transitions sont discrets et déterministes. Les bases mathématiques sont disponibles librement sur la page du master DAC. Attention, les premiers cours sont faciles, après ca se corse
Après du coup, il y a des extensions à la théorie des jeux et au cas non discret, surtout par NN
Le " reward shaping" permet de faciliter le cheminement entre les états pour éviter d'aller chercher trop loin.
T'es déjà le nez dans le guidon, le concept général que tu permet ça c'est le principe de programmation dynamique (celui qui découpe un intervalle d'optimisation en deux étapes), et les équations que tu obtiens, que ce soit discret ou continue, à partir de ce principe, c'est ce qu'on appelle les équations d'Hamilton Jacobi Bellman. Ce que tu décris c'est déjà du renforcement, donc un axe très précis.
Je vois que tu n'as pas la vision d'ensemble, naturelle sera ta sélection
Les équations de Bellman sont présentées slide 2 du DAC
C'est pas exactement ce qui constitue l'aboutissement de la recherche en la matière
Je ne dis pas que t'as jamais vu, t'as nécessairement vu, ce que je disais, c'est que t'as pas distingué le concept mathématique indépendant de l'IA et les algo de l'IA
principe de programmation dynamique et équations d'HJB ça n'a rien à voir avec l'IA, c'est juste une approche reprise par celle-ci où t'intègre le fléau de la dimension et l'exploration de l'espace, là où dans HJB classique tes lois sont parfaitement connues et tu résous en dimension raisonnable, et où le modèle est "parfait" dans un certain sens. Résoudre un HJB avec IA ce n'est pas résoudre un HJB, c'est approximer un HJB dans un cadre particulier.
Et résoudre parfaitement un HJB en petite dimension peut nourrir ton algo d'IA de renforcement en grande dimension, après avoir repéré les dimensions les plus importantes et fait un problème simplifié.
Mais fonce dans l'algo, tant que la musique tourne, tu peux danser, mais naturelle sera également ta sélection
En gros t'es en train de dire vaguement qu'on utilise des heuristiques pour un problème NP-complet
Je n'ai jamais parlé de complexité, à caser des mots clés, et tu parles de complexité polynomiale, sauf que la complexité, à précision donnée de l'espace, disons commune pour simplifier "a" (nombre de pas), est facteur du produit a^d où d est la dimension. Pas très polynomiale tout ça
Données du topic
- Auteur
- LnDeTroie
- Date de création
- 10 avril 2021 à 19:51:35
- Nb. messages archivés
- 927
- Nb. messages JVC
- 916