"GNEUGNEU je suis DATA SCIENTIST je DOIS trouver le minimum GLOBAL""
Le 10 avril 2021 à 23:40:57 :
Le 10 avril 2021 à 23:37:53 :
Le 10 avril 2021 à 23:25:30 :
Le 10 avril 2021 à 23:18:25 :
Si un mathematician fait des stats par ici, il peut m'expliquer rapidement la corrélation ainsi que l'autocorélation svpJe ne suis pas précisément en état mais
Avdc les mains :
Corrélation c'est dans le cas où tu observes des couples (Xi, Yi). Si les Xi et Yi sont généralement (pour la plupart des i)orientés de la même manière vis-à-vis de leurs moyennes respectives, alors leur corrélation est positive, sinon elle est négative.Si la corrélation vaut 0 alors c'est impossible d'inférer de l'information de X vers Y sans information supplementaire vis-à-vis de la loi jointe.
Une vecteur gaussien (X,Y) non corrélé est équivalent à un vecteur gaussien independant, dans ce cas là aucune information de X vers Y ou l'inverse n'est disponible même en présence d'infos complémentaires
Autocorrélation : corrélation dans le temps, par exemple à une fréquence donnée. Tu as plus de chiffre d'affaires dqns une agence de voyage en été, donc tu dois claquer une autocorrélation d'ordre 12
Je suis en L3 elec où je fait des maths sur les signaux kheyou
Jusqu'à maintenant j'avais eu la flemme de travailler cette matière mais les parties sont dans 3 semainesMerci kheyou c'est beaucoup plus clair
Surtout je viens de remarquer la notion de moyenne donc on travaille toujours avec les moyennes (ou devrais-je plutot dire l'esperance) ?Oui la moyenne/espérance c'est la notion numéro 1, car la mesure dans les espaces aléatoires se fait toujours par rapport à ce point. Mais tu as pas besoin d'aller aussi loin
Le 10 avril 2021 à 23:42:23 :
Le 10 avril 2021 à 23:38:02 :
Le 10 avril 2021 à 23:18:25 :
Si un mathematician fait des stats par ici, il peut m'expliquer rapidement la corrélation ainsi que l'autocorélation svpa°b = F'( Fa . Fb)
a*b = F'( Fa . F'b)
a°a = F'((Fa).^2)
a*a = F'(Fa . conj(Fa))1) La correlation, c'est une convolution à l'envers
2) c'est un simple produit dans l'espace spectral (=espace propre, =espace decorrélé, =spectre,...)
3) L'auto-convolution c'est la norme au carré dans l'espace spectral
4) L'auto-correlation c'est le carré dans l'espace spectralCe qui compte surtout dans la vie réelle, c'est max(a°b)
ou plutot ||a°b||_infLa pédagogie c'est pas votre fort les matheux purs et durs
Mais vous êtes tellement chauds en algèbre c'est impressionnant
T'es chargé de TD khey ? On m'a proposé que traitement du signal ça m'a gavé je déteste ça (j'ai fait le heures quand même)
Le 10 avril 2021 à 23:42:23 :
Le 10 avril 2021 à 23:38:02 :
Le 10 avril 2021 à 23:18:25 :
Si un mathematician fait des stats par ici, il peut m'expliquer rapidement la corrélation ainsi que l'autocorélation svpa°b = F'( Fa . Fb)
a*b = F'( Fa . F'b)
a°a = F'((Fa).^2)
a*a = F'(Fa . conj(Fa))1) La correlation, c'est une convolution à l'envers
2) c'est un simple produit dans l'espace spectral (=espace propre, =espace decorrélé, =spectre,...)
3) L'auto-convolution c'est la norme au carré dans l'espace spectral
4) L'auto-correlation c'est le carré dans l'espace spectralCe qui compte surtout dans la vie réelle, c'est max(a°b)
ou plutot ||a°b||_infLa pédagogie c'est pas votre fort les matheux purs et durs
Mais vous êtes tellement chauds en algèbre c'est impressionnant
Ca me rappelle mon cours d'analyse harmonique tout ça
Le 10 avril 2021 à 23:44:20 :
Le bayesien ça sert vraiment ? Vous êtes amenés à trouver des lois à posteriori dans votre taff ?
Dans ce qui est décisionnel ça peut être utilisé (médical)
Sinon ça reste de niche
Vous exploitez des csv sur Rstudio ?
Le 10 avril 2021 à 23:47:25 :
Y'a du travail pour quelq'un qui aime les maths et la linguistique ?
Go Grenoble, y'a des chercheurs de qualité, et si t'es bin go NaverLabs en NLP et système de recherche
Le 10 avril 2021 à 23:44:20 :
Le bayesien ça sert vraiment ? Vous êtes amenés à trouver des lois à posteriori dans votre taff ?
Pour un projet on a construit un modèle d'inversion d'une loi physique à variables latentes.
On observe Y, on connait f(X) + U = Y avec U aléa
Mais on connaît pas X. On retrouve la loi de X par Gibbs /MH à l'aide d'un prior deter. Ça nous permet de trouver la répartition des valeurs rares de Y de manière à les anticiper. Et MH ça sert vraiment énormément oui Le plus bel algo d'ailleurs
Le 10 avril 2021 à 23:43:33 :
Le 10 avril 2021 à 23:42:23 :
Le 10 avril 2021 à 23:38:02 :
Le 10 avril 2021 à 23:18:25 :
Si un mathematician fait des stats par ici, il peut m'expliquer rapidement la corrélation ainsi que l'autocorélation svpa°b = F'( Fa . Fb)
a*b = F'( Fa . F'b)
a°a = F'((Fa).^2)
a*a = F'(Fa . conj(Fa))1) La correlation, c'est une convolution à l'envers
2) c'est un simple produit dans l'espace spectral (=espace propre, =espace decorrélé, =spectre,...)
3) L'auto-convolution c'est la norme au carré dans l'espace spectral
4) L'auto-correlation c'est le carré dans l'espace spectralCe qui compte surtout dans la vie réelle, c'est max(a°b)
ou plutot ||a°b||_infLa pédagogie c'est pas votre fort les matheux purs et durs
Mais vous êtes tellement chauds en algèbre c'est impressionnant
T'es chargé de TD khey ? On m'a proposé que traitement du signal ça m'a gavé je déteste ça (j'ai fait le heures quand même)
Les kheys qui candidatent au MVA, vous avez tous des lettres de recommandation ? J'ai vu que c'était obligatoire maintenant
Comment on fait si on a aucun contact ? Je met un pdf vierge histoire que la candidature soit quand même traité ?
Le 10 avril 2021 à 23:11:24 :
Le 10 avril 2021 à 23:04:17 Daryl12 a écrit :
Le 10 avril 2021 à 22:01:02 :
"Pfff de toute façon la géométrie, les projections tout ca ça n'a aucune utilité"La moindre régression linéaire ou pénalisation L1 utilise le concept de projection
"La moyenne géométrique est un concept inutile, vraiment un truc inutilement compliqué"
La plupart des algorithmes de recherche de métriques dérivent de ce concept
Eh l'auteur, tu as un avis sur la mode du "tout neurone" depuis 6/7 ans ? Il y'a une 10aines d'années, on avait quand même une sacré dynamique autour des minimisations dans L1, L0 et pas que dans la robustification, il y'avait des résultats assez profond qui touchaient à la fois théorie de l'information et physique fondamentale. Dommage que ces bourrins soient arrivé avec leur vieux neurones dépoussiérés des 80's et ont détourné les jeunes de la vraie vérité.
Pour nous à l'époque, un SDP posé en sparse avec un Gradient conjugué non-linéaire bien préconditionné en dual avec un IRLS pour les contrainte non-quadratique, c'était le futur ! HOSVD dans L1, ça tuait.. Dommage que ces porcs soient arrivé avec leur rangé de neuronnes en cuda et leur gradient débile même pas rapide.
Les 10's me manquentEn attendant, c'est le RL + deep learning qui ont battu Lee Sedol, fallait focus un objectif médiatisé
J'aimerais qu'un jour, les benchmarks des algos soient quotienté par l'énérgie qu'ils consomment à méta-paramètre fixe. C'est la seule échelle de valide. Mais c'est vrai que l'usage intensif de la mémoire au détriment de la computation à changer le game, comme la mémoire ne coûte plus rien. Enfin, le debat Memoire vs Computation est vieux d'ailleurs...
Par ailleurs, les lassos type l1/l0 s'adaptaient assez joliement sur des problèmes discret (Salesman, k-means = NMF = PCA avec exotique, etc), mais c'est sur que ça manque pas mal de flexibilité, et necessite beaucoup de travail de ré/interprétation (le plus dur, c'est de poser le probleme, pas de le résoudre).
Le 10 avril 2021 à 23:51:53 :
Ca a l'air nul à chier, et j'ai fait une rang A (centrale Nantes) DS c'était typiquement la filière des puceaux
tu penses qu'ils n'ont jamais touché de filles de leur vie ?
Le 10 avril 2021 à 23:51:10 :
Le 10 avril 2021 à 23:11:24 :
Le 10 avril 2021 à 23:04:17 Daryl12 a écrit :
Le 10 avril 2021 à 22:01:02 :
"Pfff de toute façon la géométrie, les projections tout ca ça n'a aucune utilité"La moindre régression linéaire ou pénalisation L1 utilise le concept de projection
"La moyenne géométrique est un concept inutile, vraiment un truc inutilement compliqué"
La plupart des algorithmes de recherche de métriques dérivent de ce concept
Eh l'auteur, tu as un avis sur la mode du "tout neurone" depuis 6/7 ans ? Il y'a une 10aines d'années, on avait quand même une sacré dynamique autour des minimisations dans L1, L0 et pas que dans la robustification, il y'avait des résultats assez profond qui touchaient à la fois théorie de l'information et physique fondamentale. Dommage que ces bourrins soient arrivé avec leur vieux neurones dépoussiérés des 80's et ont détourné les jeunes de la vraie vérité.
Pour nous à l'époque, un SDP posé en sparse avec un Gradient conjugué non-linéaire bien préconditionné en dual avec un IRLS pour les contrainte non-quadratique, c'était le futur ! HOSVD dans L1, ça tuait.. Dommage que ces porcs soient arrivé avec leur rangé de neuronnes en cuda et leur gradient débile même pas rapide.
Les 10's me manquentEn attendant, c'est le RL + deep learning qui ont battu Lee Sedol, fallait focus un objectif médiatisé
J'aimerais qu'un jour, les benchmarks des algos soient quotienté par l'énérgie qu'ils consomment à méta-paramètre fixe. C'est la seule échelle de valide. Mais c'est vrai que l'usage intensif de la mémoire au détriment de la computation à changer le game, comme la mémoire ne coûte plus rien. Enfin, le debat Memoire vs Computation est vieux d'ailleurs...
Par ailleurs, les lassos type l1/l0 s'adaptaient assez joliement sur des problèmes discret (Salesman, k-means = NMF = PCA avec exotique, etc), mais c'est sur que ça manque pas mal de flexibilité, et necessite beaucoup de travail de ré/interprétation (le plus dur, c'est de poser le probleme, pas de le résoudre).
Je suis d'accord, tu as oublié le temps comme critère potentiel
Le 10 avril 2021 à 23:51:53 :
Ca a l'air nul à chier, et j'ai fait une rang A (centrale Nantes) DS c'était typiquement la filière des puceaux
Données du topic
- Auteur
- LnDeTroie
- Date de création
- 10 avril 2021 à 19:51:35
- Nb. messages archivés
- 927
- Nb. messages JVC
- 916