Chercheur en IA à 26 ans, je gagne 800k/an sur Paris
SuppriméLe 21 juillet 2024 à 01:18:32 :
Le 21 juillet 2024 à 01:11:12 :
Le 21 juillet 2024 à 01:07:39 :
Le 21 juillet 2024 à 01:04:52 :
Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaineÉtant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
Le 21 juillet 2024 à 01:15:58 :
Le 21 juillet 2024 à 01:11:12 :
Le 21 juillet 2024 à 01:07:39 :
Le 21 juillet 2024 à 01:04:52 :
Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaineÉtant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
À ce salaire là je peux pas croire que t'as pas fait du pre-training de LLM, donc modèle entier, training bfloat16, évidemment distribué, etc.
Est ce que vous avez juste le budget pour surallouer des ressources pour le training ?
J’entraine que en bf16 et distribué oui
Pour le training en entier c’est pretraining oui, mais fine-tuning parfois lora marche mieux.
Lora c'est bien pour ceux qui ont peu de ressources, t'es en train de me dire qu'à DeepMind/Meta vous entrainez des LoRA ?
Le 21 juillet 2024 à 01:21:44 :
Le 21 juillet 2024 à 01:18:32 :
Le 21 juillet 2024 à 01:11:12 :
Le 21 juillet 2024 à 01:07:39 :
Le 21 juillet 2024 à 01:04:52 :
Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaineÉtant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
Le 21 juillet 2024 à 01:15:58 :
Le 21 juillet 2024 à 01:11:12 :
Le 21 juillet 2024 à 01:07:39 :
> Le 21 juillet 2024 à 01:04:52 :
>Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaine
Étant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
À ce salaire là je peux pas croire que t'as pas fait du pre-training de LLM, donc modèle entier, training bfloat16, évidemment distribué, etc.
Est ce que vous avez juste le budget pour surallouer des ressources pour le training ?
J’entraine que en bf16 et distribué oui
Pour le training en entier c’est pretraining oui, mais fine-tuning parfois lora marche mieux.
Lora c'est bien pour ceux qui ont peu de ressources, t'es en train de me dire qu'à DeepMind/Meta vous entrainez des LoRA ?
Regarde certains papiers de recherche recents. Pendant le fine-tuning tu peux avoir des meilleures performances en lora. Ça apporte de la régularisation, qui te permet de faire plein d’epochs sur tes datasets sans overfit.
Apres c’est très empirique, je dis pas que ça marche mieux tout le temps, mais la dernière fois que j’avais essayé ça marchait mieux.
Le 21 juillet 2024 à 01:26:29 :
Le 21 juillet 2024 à 01:21:44 :
Le 21 juillet 2024 à 01:18:32 :
Le 21 juillet 2024 à 01:11:12 :
Le 21 juillet 2024 à 01:07:39 :
> Le 21 juillet 2024 à 01:04:52 :
>Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaine
Étant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
Le 21 juillet 2024 à 01:15:58 :
Le 21 juillet 2024 à 01:11:12 :
> Le 21 juillet 2024 à 01:07:39 :
>> Le 21 juillet 2024 à 01:04:52 :
> >Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaine
>
> Étant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
À ce salaire là je peux pas croire que t'as pas fait du pre-training de LLM, donc modèle entier, training bfloat16, évidemment distribué, etc.
Est ce que vous avez juste le budget pour surallouer des ressources pour le training ?
J’entraine que en bf16 et distribué oui
Pour le training en entier c’est pretraining oui, mais fine-tuning parfois lora marche mieux.
Lora c'est bien pour ceux qui ont peu de ressources, t'es en train de me dire qu'à DeepMind/Meta vous entrainez des LoRA ?
Regarde certains papiers de recherche recents. Pendant le fine-tuning tu peux avoir des meilleures performances en lora. Ça apporte de la régularisation, qui te permet de faire plein d’epochs sur tes datasets sans overfit.
Apres c’est très empirique, je dis pas que ça marche mieux tout le temps, mais la dernière fois que j’avais essayé ça marchait mieux.
Tu bosses pas sur un produit (Llama, Gemini) je me trompe ? Plus dans une équipe recherche j'ai l'impression, ça élimine Mistral
Le 21 juillet 2024 à 01:28:57 :
Le 21 juillet 2024 à 01:26:29 :
Le 21 juillet 2024 à 01:21:44 :
Le 21 juillet 2024 à 01:18:32 :
Le 21 juillet 2024 à 01:11:12 :
> Le 21 juillet 2024 à 01:07:39 :
>> Le 21 juillet 2024 à 01:04:52 :
> >Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaine
>
> Étant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
Le 21 juillet 2024 à 01:15:58 :
> Le 21 juillet 2024 à 01:11:12 :
>> Le 21 juillet 2024 à 01:07:39 :
> >> Le 21 juillet 2024 à 01:04:52 :
> > >Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaine
> >
> > Étant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
>
> Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
>
> Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
>
> Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
>
> Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
À ce salaire là je peux pas croire que t'as pas fait du pre-training de LLM, donc modèle entier, training bfloat16, évidemment distribué, etc.
Est ce que vous avez juste le budget pour surallouer des ressources pour le training ?
J’entraine que en bf16 et distribué oui
Pour le training en entier c’est pretraining oui, mais fine-tuning parfois lora marche mieux.
Lora c'est bien pour ceux qui ont peu de ressources, t'es en train de me dire qu'à DeepMind/Meta vous entrainez des LoRA ?
Regarde certains papiers de recherche recents. Pendant le fine-tuning tu peux avoir des meilleures performances en lora. Ça apporte de la régularisation, qui te permet de faire plein d’epochs sur tes datasets sans overfit.
Apres c’est très empirique, je dis pas que ça marche mieux tout le temps, mais la dernière fois que j’avais essayé ça marchait mieux.Tu bosses pas sur un produit (Llama, Gemini) je me trompe ? Plus dans une équipe recherche j'ai l'impression, ça élimine Mistral
Si je travaille exactement sur un produit. Yes j’ai déjà dit un peu plus haut que je travaillais pas pour eux, mais je m’arrête là je dis pas plus.
Le 21 juillet 2024 à 01:28:57 :
Le 21 juillet 2024 à 01:26:29 :
Le 21 juillet 2024 à 01:21:44 :
Le 21 juillet 2024 à 01:18:32 :
Le 21 juillet 2024 à 01:11:12 :
> Le 21 juillet 2024 à 01:07:39 :
>> Le 21 juillet 2024 à 01:04:52 :
> >Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaine
>
> Étant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
Le 21 juillet 2024 à 01:15:58 :
> Le 21 juillet 2024 à 01:11:12 :
>> Le 21 juillet 2024 à 01:07:39 :
> >> Le 21 juillet 2024 à 01:04:52 :
> > >Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaine
> >
> > Étant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
>
> Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
>
> Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
>
> Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
>
> Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
À ce salaire là je peux pas croire que t'as pas fait du pre-training de LLM, donc modèle entier, training bfloat16, évidemment distribué, etc.
Est ce que vous avez juste le budget pour surallouer des ressources pour le training ?
J’entraine que en bf16 et distribué oui
Pour le training en entier c’est pretraining oui, mais fine-tuning parfois lora marche mieux.
Lora c'est bien pour ceux qui ont peu de ressources, t'es en train de me dire qu'à DeepMind/Meta vous entrainez des LoRA ?
Regarde certains papiers de recherche recents. Pendant le fine-tuning tu peux avoir des meilleures performances en lora. Ça apporte de la régularisation, qui te permet de faire plein d’epochs sur tes datasets sans overfit.
Apres c’est très empirique, je dis pas que ça marche mieux tout le temps, mais la dernière fois que j’avais essayé ça marchait mieux.Tu bosses pas sur un produit (Llama, Gemini) je me trompe ? Plus dans une équipe recherche j'ai l'impression, ça élimine Mistral
Et toi clé tu fais quoi ?
Le 21 juillet 2024 à 01:32:36 :
Le 21 juillet 2024 à 01:28:57 :
Le 21 juillet 2024 à 01:26:29 :
Le 21 juillet 2024 à 01:21:44 :
Le 21 juillet 2024 à 01:18:32 :
> Le 21 juillet 2024 à 01:11:12 :
>> Le 21 juillet 2024 à 01:07:39 :
> >> Le 21 juillet 2024 à 01:04:52 :
> > >Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaine
> >
> > Étant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
>
> Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
>
> Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
>
> Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
>
> Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
> Le 21 juillet 2024 à 01:15:58 :
>> Le 21 juillet 2024 à 01:11:12 :
> >> Le 21 juillet 2024 à 01:07:39 :
> > >> Le 21 juillet 2024 à 01:04:52 :
> > > >Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaine
> > >
> > > Étant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
> >
> > Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
> >
> > Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
> >
> > Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
> >
> > Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
>
> À ce salaire là je peux pas croire que t'as pas fait du pre-training de LLM, donc modèle entier, training bfloat16, évidemment distribué, etc.
>
> Est ce que vous avez juste le budget pour surallouer des ressources pour le training ?
J’entraine que en bf16 et distribué oui
Pour le training en entier c’est pretraining oui, mais fine-tuning parfois lora marche mieux.
Lora c'est bien pour ceux qui ont peu de ressources, t'es en train de me dire qu'à DeepMind/Meta vous entrainez des LoRA ?
Regarde certains papiers de recherche recents. Pendant le fine-tuning tu peux avoir des meilleures performances en lora. Ça apporte de la régularisation, qui te permet de faire plein d’epochs sur tes datasets sans overfit.
Apres c’est très empirique, je dis pas que ça marche mieux tout le temps, mais la dernière fois que j’avais essayé ça marchait mieux.Tu bosses pas sur un produit (Llama, Gemini) je me trompe ? Plus dans une équipe recherche j'ai l'impression, ça élimine Mistral
Et toi clé tu fais quoi ?
J'ai fais le même master que toi j'hésite à go thèse c'est utile ?
Le 21 juillet 2024 à 01:34:32 :
Le 21 juillet 2024 à 01:32:36 :
Le 21 juillet 2024 à 01:28:57 :
Le 21 juillet 2024 à 01:26:29 :
Le 21 juillet 2024 à 01:21:44 :
> Le 21 juillet 2024 à 01:18:32 :
>> Le 21 juillet 2024 à 01:11:12 :
> >> Le 21 juillet 2024 à 01:07:39 :
> > >> Le 21 juillet 2024 à 01:04:52 :
> > > >Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaine
> > >
> > > Étant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
> >
> > Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
> >
> > Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
> >
> > Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
> >
> > Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
>
> > Le 21 juillet 2024 à 01:15:58 :
> >> Le 21 juillet 2024 à 01:11:12 :
> > >> Le 21 juillet 2024 à 01:07:39 :
> > > >> Le 21 juillet 2024 à 01:04:52 :
> > > > >Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaine
> > > >
> > > > Étant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
> > >
> > > Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
> > >
> > > Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
> > >
> > > Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
> > >
> > > Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
> >
> > À ce salaire là je peux pas croire que t'as pas fait du pre-training de LLM, donc modèle entier, training bfloat16, évidemment distribué, etc.
> >
> > Est ce que vous avez juste le budget pour surallouer des ressources pour le training ?
>
> J’entraine que en bf16 et distribué oui
>
> Pour le training en entier c’est pretraining oui, mais fine-tuning parfois lora marche mieux.
Lora c'est bien pour ceux qui ont peu de ressources, t'es en train de me dire qu'à DeepMind/Meta vous entrainez des LoRA ?
Regarde certains papiers de recherche recents. Pendant le fine-tuning tu peux avoir des meilleures performances en lora. Ça apporte de la régularisation, qui te permet de faire plein d’epochs sur tes datasets sans overfit.
Apres c’est très empirique, je dis pas que ça marche mieux tout le temps, mais la dernière fois que j’avais essayé ça marchait mieux.Tu bosses pas sur un produit (Llama, Gemini) je me trompe ? Plus dans une équipe recherche j'ai l'impression, ça élimine Mistral
Et toi clé tu fais quoi ?
J'ai fais le même master que toi j'hésite à go thèse c'est utile ?
Ca dépend, tu veux faire quoi après ?
Ma question : Comment as tu eu le temps de te démarquer à 26 ans pour avoir un CV qui pousse une boîte à mettre 800K€/an sur toi ?
En admettant que tu aies sauté une classe, à 26 tu viens de terminer ton doctorat. Tu n'as donc pas eu le temps de faire des post-doctorats et continuer à faire tes armes. Il doit y avoir plein de candidats plus qualifiés qu'un jeune docteur qui se sont positionnés sur un tel poste. Comment as-tu été séléctionné avec une concurrence certainement aussi rude ?
Le 21 juillet 2024 à 01:34:08 :
T'es sur que tu gonfles pas un peu ta TC quand même ? 300, 400 ou 500k ça me choquerait pas (quoique c'est déjà énorme pour quelqu'un qui a au max 3-4 ans d'xp), mais 800k permets moi d'en douter (et je fais partie du milieu)
Oui c’est exceptionnel, j’ai eu la chance de travailler sur les bons sujets un peu avant tout le monde, ce qui fait que j’ai pu négocier ça.
En general les meilleurs en sortant de thèse actuellement peuvent négocier 2M-2.5M chez Meta/Deepmind s’ils ont des super papiers et qu’ils peuvent apporter quelque chose que l’entreprise n’a pas, mais c’est pas tout le monde
Le 21 juillet 2024 à 01:37:25 :
Le 21 juillet 2024 à 01:34:32 :
Le 21 juillet 2024 à 01:32:36 :
Le 21 juillet 2024 à 01:28:57 :
Le 21 juillet 2024 à 01:26:29 :
> Le 21 juillet 2024 à 01:21:44 :
>> Le 21 juillet 2024 à 01:18:32 :
> >> Le 21 juillet 2024 à 01:11:12 :
> > >> Le 21 juillet 2024 à 01:07:39 :
> > > >> Le 21 juillet 2024 à 01:04:52 :
> > > > >Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaine
> > > >
> > > > Étant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
> > >
> > > Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
> > >
> > > Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
> > >
> > > Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
> > >
> > > Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
> >
> > > Le 21 juillet 2024 à 01:15:58 :
> > >> Le 21 juillet 2024 à 01:11:12 :
> > > >> Le 21 juillet 2024 à 01:07:39 :
> > > > >> Le 21 juillet 2024 à 01:04:52 :
> > > > > >Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaine
> > > > >
> > > > > Étant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
> > > >
> > > > Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
> > > >
> > > > Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
> > > >
> > > > Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
> > > >
> > > > Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
> > >
> > > À ce salaire là je peux pas croire que t'as pas fait du pre-training de LLM, donc modèle entier, training bfloat16, évidemment distribué, etc.
> > >
> > > Est ce que vous avez juste le budget pour surallouer des ressources pour le training ?
> >
> > J’entraine que en bf16 et distribué oui
> >
> > Pour le training en entier c’est pretraining oui, mais fine-tuning parfois lora marche mieux.
>
> Lora c'est bien pour ceux qui ont peu de ressources, t'es en train de me dire qu'à DeepMind/Meta vous entrainez des LoRA ?
Regarde certains papiers de recherche recents. Pendant le fine-tuning tu peux avoir des meilleures performances en lora. Ça apporte de la régularisation, qui te permet de faire plein d’epochs sur tes datasets sans overfit.
Apres c’est très empirique, je dis pas que ça marche mieux tout le temps, mais la dernière fois que j’avais essayé ça marchait mieux.Tu bosses pas sur un produit (Llama, Gemini) je me trompe ? Plus dans une équipe recherche j'ai l'impression, ça élimine Mistral
Et toi clé tu fais quoi ?
J'ai fais le même master que toi j'hésite à go thèse c'est utile ?
Ca dépend, tu veux faire quoi après ?
Research scientist dans le privé mais les places sont rares, j'ai pas trop envie de rester dans le monde académique
Le 21 juillet 2024 à 01:38:09 :
Ma question : Comment as tu eu le temps de te démarquer à 26 ans pour avoir un CV qui pousse une boîte à mettre 800K€/an sur toi ?En admettant que tu aies sauté une classe, à 26 tu viens de terminer ton doctorat. Tu n'as donc pas eu le temps de faire des post-doctorats et continuer à faire tes armes. Il doit y avoir plein de candidats plus qualifiés qu'un jeune docteur qui se sont positionnés sur un tel poste. Comment as-tu été séléctionné avec une concurrence certainement aussi rude ?
Le truc le plus probable c'est un (énorme) sign in bonus parce qu'il était déjà dans une autre boite de ce type là avant, et encore malgré ça c'est 2 fois trop .
Un exemple des TC à meta : https://www.levels.fyi/companies/facebook/salaries/research-scientist 300k pour des juniors en moyenne, ptet 400 si t'es chaud, 800 j'y crois pas trop
Le 21 juillet 2024 à 01:34:32 :
Le 21 juillet 2024 à 01:32:36 :
Le 21 juillet 2024 à 01:28:57 :
Le 21 juillet 2024 à 01:26:29 :
Le 21 juillet 2024 à 01:21:44 :
> Le 21 juillet 2024 à 01:18:32 :
>> Le 21 juillet 2024 à 01:11:12 :
> >> Le 21 juillet 2024 à 01:07:39 :
> > >> Le 21 juillet 2024 à 01:04:52 :
> > > >Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaine
> > >
> > > Étant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
> >
> > Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
> >
> > Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
> >
> > Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
> >
> > Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
>
> > Le 21 juillet 2024 à 01:15:58 :
> >> Le 21 juillet 2024 à 01:11:12 :
> > >> Le 21 juillet 2024 à 01:07:39 :
> > > >> Le 21 juillet 2024 à 01:04:52 :
> > > > >Vas y continue des questions techniques, mais vraiment ultra pointue, sur mon domaine
> > > >
> > > > Étant donné un nombre de paramètres d'un modèle, une batch size, et un context length, comment tu évalues la quantité de GPU/VRAM nécessaire pour entrainer un transformer classique ?
> > >
> > > Ca depend ta facon d’entrainer deja, si c’est tout unfreeze, une partie, lora, etc…
> > >
> > > Apres tu peux juste compter tes paramètres et voir la memoire qu’il faut pour les stocker deja.
> > >
> > > Ca depend de ton optimizer, adam prend plus de memoire par exemple en stockage les moments d’ordre 2
> > >
> > > Mais le calcul est plus compliqué en distribué puisque de toute façon ça tiendra pas sur 1 gpu, donc il faudra plusieurs nodes et faire de la parallélisation
> >
> > À ce salaire là je peux pas croire que t'as pas fait du pre-training de LLM, donc modèle entier, training bfloat16, évidemment distribué, etc.
> >
> > Est ce que vous avez juste le budget pour surallouer des ressources pour le training ?
>
> J’entraine que en bf16 et distribué oui
>
> Pour le training en entier c’est pretraining oui, mais fine-tuning parfois lora marche mieux.
Lora c'est bien pour ceux qui ont peu de ressources, t'es en train de me dire qu'à DeepMind/Meta vous entrainez des LoRA ?
Regarde certains papiers de recherche recents. Pendant le fine-tuning tu peux avoir des meilleures performances en lora. Ça apporte de la régularisation, qui te permet de faire plein d’epochs sur tes datasets sans overfit.
Apres c’est très empirique, je dis pas que ça marche mieux tout le temps, mais la dernière fois que j’avais essayé ça marchait mieux.Tu bosses pas sur un produit (Llama, Gemini) je me trompe ? Plus dans une équipe recherche j'ai l'impression, ça élimine Mistral
Et toi clé tu fais quoi ?
J'ai fais le même master que toi j'hésite à go thèse c'est utile ?
En soit pour les compétences non, mais si t’as pas de thèse dans les grosses boites tu seras condamné à rester research engineer et pas research scientist et c’est chiant.
Je pense c’est bien d’en faire une cifre, si tu peux la faire avec meta c’est incroyable, je crois que deepmind commence à en faire aussi. Sinon académique, quitte à arrêter en cours de thèse pour rejoindre une entreprise
Le 21 juillet 2024 à 01:39:17 :
Le 21 juillet 2024 à 01:34:08 :
T'es sur que tu gonfles pas un peu ta TC quand même ? 300, 400 ou 500k ça me choquerait pas (quoique c'est déjà énorme pour quelqu'un qui a au max 3-4 ans d'xp), mais 800k permets moi d'en douter (et je fais partie du milieu)Oui c’est exceptionnel, j’ai eu la chance de travailler sur les bons sujets un peu avant tout le monde, ce qui fait que j’ai pu négocier ça.
En general les meilleurs en sortant de thèse actuellement peuvent négocier 2M-2.5M chez Meta/Deepmind s’ils ont des super papiers et qu’ils peuvent apporter quelque chose que l’entreprise n’a pas, mais c’est pas tout le monde
Euh oui ptet si t'as fait un best paper sur pile le milieu qui va bien, et du coup c'est un sign in bonus et pas une compensation chaque année.
En tout cas si tu fais partie des rares gens qui ont sorti un papier remarquable ces dernières années, bah bravo, mais pour y avoir bossé un petit moment bah j'ai jamais entendu ces montants
J'ai fais le même master que toi j'hésite à go thèse c'est utile ?
En soit pour les compétences non, mais si t’as pas de thèse dans les grosses boites tu seras condamné à rester research engineer et pas research scientist et c’est chiant.
Je pense c’est bien d’en faire une cifre, si tu peux la faire avec meta c’est incroyable, je crois que deepmind commence à en faire aussi. Sinon académique, quitte à arrêter en cours de thèse pour rejoindre une entreprise
Les CIFRE Meta y'a quelque chose comme 5 sélectionnés par ans ahi Le monde de l'IA est devenu plus compétitif que quand t'y es rentré je pense
Le 21 juillet 2024 à 01:38:09 :
Ma question : Comment as tu eu le temps de te démarquer à 26 ans pour avoir un CV qui pousse une boîte à mettre 800K€/an sur toi ?En admettant que tu aies sauté une classe, à 26 tu viens de terminer ton doctorat. Tu n'as donc pas eu le temps de faire des post-doctorats et continuer à faire tes armes. Il doit y avoir plein de candidats plus qualifiés qu'un jeune docteur qui se sont positionnés sur un tel poste. Comment as-tu été séléctionné avec une concurrence certainement aussi rude ?
Il faut que tu sois un peu précurseur sur un sujet qui va intéresser les boites dans 2 ans mettons.
Je suis arrivé avant la vague. Pendant un moment ce que je faisais intéressait pas forcément les entreprises.
Mais quand c’est devenu un élément clé pour elles, et qu’il y avait quasiment personne qui avait travaillé la dessus, c’est ces entreprises qui m’ont toutes contactés.
A la fois obtenir un job dans les gafa ou meilleures startups peut sembler extrêmement extrêmement difficile et concurrenciel, à la fois tu peux pas savoir combien ces entreprises sont en chiens pour recruter quelques personnes très spécifiques
Données du topic
- Auteur
- GenAI
- Date de création
- 20 juillet 2024 à 23:36:50
- Date de suppression
- 21 juillet 2024 à 03:05:00
- Supprimé par
- Auteur
- Nb. messages archivés
- 253
- Nb. messages JVC
- 252