Topic de SuceurDeBonbon :

je suis expert en IA/Deep Learning/Modèle génratif et je réponds aux questions

Le 21 octobre 2024 à 20:14:37 :
2024, toujours aucune révolution de l'IA en vue. Le nombre de métiers "remplacés" est anecdotique et l'AGI semble remise à 2080. :ok:

oui j'avoue en 1995 5 ans après l'avénement d'internet, ça n'avait toujours rien remplacé c'était du gros bullshit :ok:

tu vas te mettre bien niveau taff à l'avenir si tu fais un doctorat là-dedans ahi

GG à toi

Le 21 octobre 2024 à 20:15:34 :

Le 21 octobre 2024 à 20:14:37 :
2024, toujours aucune révolution de l'IA en vue. Le nombre de métiers "remplacés" est anecdotique et l'AGI semble remise à 2080. :ok:

Tu penses que c'est bullshit ?

Oui, c'est un délire pour faire investir des milliards.

Le 21 octobre 2024 à 20:18:09 :

Le 21 octobre 2024 à 20:15:25 :
Quels sont les 4 algorithmes génératifs de base que tu conseillerais?

numéro 1: modèle AR type transformer pour toutes les modalités
numéro 2: modèle diffusion pour les images
numéro 3: des GAN pour des distributions très ciblées ou la diversité importe peu
numéro 4: j'en connais pas d'autres qui soit franchement différent des 3 premiers (pour moi flow matching etc c'est diffusion) et état de l'art

OK donc tu es plutôt mid tier en IA. Question à propos du likelihood : parmi les modèles que tu as cités, lesquels maximisent la log-vraisemblance du jeu de données d'entraînement?

Tu travailles en France ? Qu’est ce que tu fais en ce moment ?

Le 21 octobre 2024 à 20:18:09 SuceurDeBonbon a écrit :

Le 21 octobre 2024 à 20:15:25 :
Quels sont les 4 algorithmes génératifs de base que tu conseillerais?

numéro 1: modèle AR type transformer pour toutes les modalités
numéro 2: modèle diffusion pour les images
numéro 3: des GAN pour des distributions très ciblées ou la diversité importe peu
numéro 4: j'en connais pas d'autres qui soit franchement différent des 3 premiers (pour moi flow matching etc c'est diffusion) et état de l'art

Un "modèle Transformers" est un réseau neuronal qui apprend le contexte et le sens en suivant les relations dans les données séquentielles, comme les mots de cette phrase, c'est d'ailleurs cette technologie (Transformers) qui nous permet de faire tourner des LLM sur du matos maison (vos GPU de pauvre) aujourd'hui.

L'OP ne se mouille pas trop; diffusion, Stable Diffusion, y en a d'autre mais c'est pas open source.
L'OP fait des datasets et lance un script, le voilà expert en deep learning https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Je bosse aussi dans l'IA et je fais 5k net, merci la technologie https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Le 21 octobre 2024 à 20:24:02 :

Le 21 octobre 2024 à 20:18:09 SuceurDeBonbon a écrit :

Le 21 octobre 2024 à 20:15:25 :
Quels sont les 4 algorithmes génératifs de base que tu conseillerais?

numéro 1: modèle AR type transformer pour toutes les modalités
numéro 2: modèle diffusion pour les images
numéro 3: des GAN pour des distributions très ciblées ou la diversité importe peu
numéro 4: j'en connais pas d'autres qui soit franchement différent des 3 premiers (pour moi flow matching etc c'est diffusion) et état de l'art

Un "modèle Transformers" est un réseau neuronal qui apprend le contexte et le sens en suivant les relations dans les données séquentielles, comme les mots de cette phrase, c'est d'ailleurs cette technologie (Transformers) qui nous permet de faire tourner des LLM sur du matos maison (vos GPU de pauvre) aujourd'hui.

L'OP ne se mouille pas trop; diffusion, Stable Diffusion, y en a d'autre mais c'est pas open source.
L'OP fait des datasets et lance un script, le voilà expert en deep learning https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Très clairement, l'OPAX avait l'occasion de citer au moins EBM et VAE, donc on est clairement sur du mid tier sorti d'école, au mieux l'OPAX réutilise des archis flinguées

Le 21 octobre 2024 à 20:22:13 :

Le 21 octobre 2024 à 20:18:09 :

Le 21 octobre 2024 à 20:15:25 :
Quels sont les 4 algorithmes génératifs de base que tu conseillerais?

numéro 1: modèle AR type transformer pour toutes les modalités
numéro 2: modèle diffusion pour les images
numéro 3: des GAN pour des distributions très ciblées ou la diversité importe peu
numéro 4: j'en connais pas d'autres qui soit franchement différent des 3 premiers (pour moi flow matching etc c'est diffusion) et état de l'art

OK donc tu es plutôt mid tier en IA. Question à propos du likelihood : parmi les modèles que tu as cités, lesquels maximisent la log-vraisemblance du jeu de données d'entraînement?

:rire: :rire:
je t'écoute, je sens que je vais rigoler

pour ton information la fonction log étant croissante, si tu maximises la vraisemblance, tu maximises la log-vraisemblance ...
donc tous les modèles génératifs entrainés en maximum de vraisemblance c'est à dire dans ma liste tous sauf le gan

Le 21 octobre 2024 à 20:24:42 :
Je bosse aussi dans l'IA et je fais 5k net, merci la technologie https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Tu bosses en freelance/ta propre boite ou pour une entreprise ? Ca gagne bien les métiers liés à L'IA? J'ai entendu dire qu'en France ya pas trop de débouchés avec un doctorat à part enseignant-chercheur dans une université quand ta la chance d'avoir une place

Le 21 octobre 2024 à 20:27:37 :

Le 21 octobre 2024 à 20:22:13 :

Le 21 octobre 2024 à 20:18:09 :

Le 21 octobre 2024 à 20:15:25 :
Quels sont les 4 algorithmes génératifs de base que tu conseillerais?

numéro 1: modèle AR type transformer pour toutes les modalités
numéro 2: modèle diffusion pour les images
numéro 3: des GAN pour des distributions très ciblées ou la diversité importe peu
numéro 4: j'en connais pas d'autres qui soit franchement différent des 3 premiers (pour moi flow matching etc c'est diffusion) et état de l'art

OK donc tu es plutôt mid tier en IA. Question à propos du likelihood : parmi les modèles que tu as cités, lesquels maximisent la log-vraisemblance du jeu de données d'entraînement?

:rire: :rire:
je t'écoute, je sens que je vais rigoler

pour ton information la fonction log étant croissante, si tu maximises la vraisemblance, tu maximises la log-vraisemblance ...
donc tous les modèles génératifs entrainés en maximum de vraisemblance c'est à dire dans ma liste tous sauf le gan

d'accord le gringolin puant, on parle en log vraisemblance par praticité et comme proxy, car n'importe qui ayant fait un peu de maths sait que c'est la bonne méthodologie dans 99% des cas.

ta dernière phrase est du pur bullshit, c'est faux (sauf pour le GAN)

Redpill, l'op n'ai absolument pas qui il prétend être et génère toutes ses réponses avec chat GPT https://image.noelshack.com/fichiers/2018/33/2/1534268800-narkoi.png

Le 21 octobre 2024 à 20:29:48 :

Le 21 octobre 2024 à 20:27:37 :

Le 21 octobre 2024 à 20:22:13 :

Le 21 octobre 2024 à 20:18:09 :

Le 21 octobre 2024 à 20:15:25 :
Quels sont les 4 algorithmes génératifs de base que tu conseillerais?

numéro 1: modèle AR type transformer pour toutes les modalités
numéro 2: modèle diffusion pour les images
numéro 3: des GAN pour des distributions très ciblées ou la diversité importe peu
numéro 4: j'en connais pas d'autres qui soit franchement différent des 3 premiers (pour moi flow matching etc c'est diffusion) et état de l'art

OK donc tu es plutôt mid tier en IA. Question à propos du likelihood : parmi les modèles que tu as cités, lesquels maximisent la log-vraisemblance du jeu de données d'entraînement?

:rire: :rire:
je t'écoute, je sens que je vais rigoler

pour ton information la fonction log étant croissante, si tu maximises la vraisemblance, tu maximises la log-vraisemblance ...
donc tous les modèles génératifs entrainés en maximum de vraisemblance c'est à dire dans ma liste tous sauf le gan

d'accord le gringolin puant, on parle en log vraisemblance par praticité et comme proxy, car n'importe qui ayant fait un peu de maths sait que c'est la bonne méthodologie dans 99% des cas.

ta dernière phrase est du pur bullshit, c'est faux

c'est pas un proxy ... c'est juste le log :rire: :rire:
+ tous les modèles génératifs que j'ai cité sont entrainés avec un objectif de reconstruction type l1/12 ce qui correspond grosso modo à un moindre carré avec résidu gaussien dans le cas continu ou à une cross entropy loss pour la régression logistique :rire: :rire:
c'est à dire un maximum de vraisemblance :rire:
allez retourne en cours tu risques de pas passer ton semestre :rire:

maintenant cite moi des modèles génératifs de l'état de l'art que j'aurais omis stp :) :) :)

Le 21 octobre 2024 à 20:32:25 :
Dioptrie de ta myopie ?

j'ai pas de lunette :ok:

Ca sert à quoi d'être expert en IA / Deep Learning alors que ce qui fait la différence c'est les flouz pour acheter des data centers pour entrainer des LLM?

Le 21 octobre 2024 à 20:34:19 :
Ca sert à quoi d'être expert en IA / Deep Learning alors que ce qui fait la différence c'est les flouz pour acheter des data centers pour entrainer des LLM?

bordel enfin quelqu'un d'intelligent et de PERTINENT sur mon topic :oui:
ça sert à coder en CUDA/Triton et à faire tourner les algos plus vites ou pour moins cher :ok:

La singularité c'est pour quand ?

Le 21 octobre 2024 à 20:32:56 :

Le 21 octobre 2024 à 20:29:48 :

Le 21 octobre 2024 à 20:27:37 :

Le 21 octobre 2024 à 20:22:13 :

Le 21 octobre 2024 à 20:18:09 :

> Le 21 octobre 2024 à 20:15:25 :

>Quels sont les 4 algorithmes génératifs de base que tu conseillerais?

numéro 1: modèle AR type transformer pour toutes les modalités
numéro 2: modèle diffusion pour les images
numéro 3: des GAN pour des distributions très ciblées ou la diversité importe peu
numéro 4: j'en connais pas d'autres qui soit franchement différent des 3 premiers (pour moi flow matching etc c'est diffusion) et état de l'art

OK donc tu es plutôt mid tier en IA. Question à propos du likelihood : parmi les modèles que tu as cités, lesquels maximisent la log-vraisemblance du jeu de données d'entraînement?

:rire: :rire:
je t'écoute, je sens que je vais rigoler

pour ton information la fonction log étant croissante, si tu maximises la vraisemblance, tu maximises la log-vraisemblance ...
donc tous les modèles génératifs entrainés en maximum de vraisemblance c'est à dire dans ma liste tous sauf le gan

d'accord le gringolin puant, on parle en log vraisemblance par praticité et comme proxy, car n'importe qui ayant fait un peu de maths sait que c'est la bonne méthodologie dans 99% des cas.

ta dernière phrase est du pur bullshit, c'est faux

c'est pas un proxy ... c'est juste le log :rire: :rire:
+ tous les modèles génératifs que j'ai cité sont entrainés avec un objectif de reconstruction type l1/12 ce qui correspond grosso modo à un moindre carré avec résidu gaussien dans le cas continu ou à une cross entropy loss pour la régression logistique :rire: :rire:
c'est à dire un maximum de vraisemblance :rire:
allez retourne en cours tu risques de pas passer ton semestre :rire:

maintenant cite moi des modèles génératifs de l'état de l'art que j'aurais omis stp :) :) :)

déjà fait le gringolin puant, regarde plus haut. Tu t'humilies

+ https://jtuckerk.github.io/prediction_probabilities.html
GTFO man

Données du topic

Auteur
SuceurDeBonbon
Date de création
21 octobre 2024 à 20:04:22
Nb. messages archivés
49
Nb. messages JVC
48
En ligne sur JvArchive 124