[ALERTE] NOUVEAU MODELE DE OPENAI (CHATGPT) ULTRA INTELLIGENT
Le 13 septembre 2024 à 08:17:24 PseudoBan118 a écrit :
Le 13 septembre 2024 à 08:12:41 :
N'empêche les cours universitaires vont vite être dépassés en FronceLes programmes ne parleront pas de l'IA avant 2030
Le vieux prof boomer qui n'a pas travaillé en entreprise depuis 20 ans avec ses cours périmés
Dans mon master il y a quelques annees on parlait deja d'IA et j'ai etudier le machine learning alors non, l'universite n'est pas depasse.
Par contre les entreprises sont a la ramasses sur les technos et elles ne comprennent pas ce qu'on peut faire avec
On m'a sorti une fois "une regression linaire on peut la faire sous Excel, pourquoi utiliser Python?"
Je ne parle pas de master en machine learning, mais des DUT/BTS.
Le 12 septembre 2024 à 19:25:17 :
Dans 10 ans on pourra se créer un jeux vidéo ou un film personnel juste en tapant deux trois trucs
non on va taper un mur très vite, là ça explose car c'est le début mais ça va vite avoir ses limites
notamment niveau serveurs
Le 13 septembre 2024 à 08:17:38 :
Je me sers de Chatgpt pour le boulot (dans la banque et la finance, ça m'aide beaucoup )Mais je connais pas assez le milieu des IA, franchement je suis prêt à payer pour avoir une IA incroyable, selon vous quel est le meilleur rapport qualité/prix ?
Continue avec Chatgpt pour l'instant, les autres IA payantes utilisent des modeles de GPT anterieurs
On voit qu'on se dirige plutôt vers des modèles spécialisés que de l'AGI pour l'instant.
Whisper Large V2 est bien meilleur que Gemini pour de la transcription d'audio, c'est 100x plus rapide, 100x moins cher et plus précis.
De même pour l'OCR, la génération d'images (Flux).
Le 13 septembre 2024 à 08:10:35 :
18 pages alors qu'on peut pas tester
Bah si le modèle est accessible
Le 13 septembre 2024 à 08:19:52 :
Le 13 septembre 2024 à 08:17:24 PseudoBan118 a écrit :
Le 13 septembre 2024 à 08:12:41 :
N'empêche les cours universitaires vont vite être dépassés en FronceLes programmes ne parleront pas de l'IA avant 2030
Le vieux prof boomer qui n'a pas travaillé en entreprise depuis 20 ans avec ses cours périmés
Dans mon master il y a quelques annees on parlait deja d'IA et j'ai etudier le machine learning alors non, l'universite n'est pas depasse.
Par contre les entreprises sont a la ramasses sur les technos et elles ne comprennent pas ce qu'on peut faire avec
On m'a sorti une fois "une regression linaire on peut la faire sous Excel, pourquoi utiliser Python?"Je parle pas de master en machine learning, mais des DUT/BTS.
On apprend pas l'IA en DUT BTS, a la limite les concepts du singleton et reseaux de neurones mais c'est tout.
Il y a deja trop de choses a apprendre pour un developpeur, entre la prog objet, l'algo, les bases de donnees, graphes UML, les design patterns, linux, la securite etc.
Plus il faut des notions avancees en statistiques avant d'aller plus loin, import un modele HuggingFace pour l'utiliser sans comprendre son fonctionnement ne fera pas un data scientist.
Gpt 4 a couté 100M à entrainer. OpenAI va faire une levée de fonds pour 6,5 Ma.
Il va falloir rentabiliser au bout d'un moment. Pour l'instant, ils brulent des valises de cash
Le 13 septembre 2024 à 08:25:21 :
Gpt 4 a couté 100M à entrainer. OpenAI va faire une levée de fonds pour 6,5 Ma.Il va falloir rentabiliser au bout d'un moment. Pour l'instant, ils brulent des valises de cash
Exactement faut rentabiliser mais comment mesurer la rentabilité du gain de temps effectué grâce aux IA génératives ?
Le 13 septembre 2024 à 08:24:59 PseudoBan118 a écrit :
Le 13 septembre 2024 à 08:19:52 :
Le 13 septembre 2024 à 08:17:24 PseudoBan118 a écrit :
Le 13 septembre 2024 à 08:12:41 :
N'empêche les cours universitaires vont vite être dépassés en FronceLes programmes ne parleront pas de l'IA avant 2030
Le vieux prof boomer qui n'a pas travaillé en entreprise depuis 20 ans avec ses cours périmés
Dans mon master il y a quelques annees on parlait deja d'IA et j'ai etudier le machine learning alors non, l'universite n'est pas depasse.
Par contre les entreprises sont a la ramasses sur les technos et elles ne comprennent pas ce qu'on peut faire avec
On m'a sorti une fois "une regression linaire on peut la faire sous Excel, pourquoi utiliser Python?"Je parle pas de master en machine learning, mais des DUT/BTS.
On apprend pas l'IA en DUT BTS, a la limite les concepts du singleton et reseaux de neurones mais c'est tout.
Il y a deja trop de choses a apprendre pour un developpeur, entre la prog objet, l'algo, les bases de donnees, graphes UML, les design patterns, linux, la securite etc.
Plus il faut des notions avancees en statistiques avant d'aller plus loin, import un modele HuggingFace pour l'utiliser sans comprendre son fonctionnement ne fera pas un data scientist.
Je parle d'apprendre à utiliser des outils IA pour être plus productif.
Prendre plus de temps à penser au projet plutôt qu'à sa réalisation.
Le 13 septembre 2024 à 08:26:54 :
Le 13 septembre 2024 à 08:24:59 PseudoBan118 a écrit :
Le 13 septembre 2024 à 08:19:52 :
Le 13 septembre 2024 à 08:17:24 PseudoBan118 a écrit :
Le 13 septembre 2024 à 08:12:41 :
N'empêche les cours universitaires vont vite être dépassés en FronceLes programmes ne parleront pas de l'IA avant 2030
Le vieux prof boomer qui n'a pas travaillé en entreprise depuis 20 ans avec ses cours périmés
Dans mon master il y a quelques annees on parlait deja d'IA et j'ai etudier le machine learning alors non, l'universite n'est pas depasse.
Par contre les entreprises sont a la ramasses sur les technos et elles ne comprennent pas ce qu'on peut faire avec
On m'a sorti une fois "une regression linaire on peut la faire sous Excel, pourquoi utiliser Python?"Je parle pas de master en machine learning, mais des DUT/BTS.
On apprend pas l'IA en DUT BTS, a la limite les concepts du singleton et reseaux de neurones mais c'est tout.
Il y a deja trop de choses a apprendre pour un developpeur, entre la prog objet, l'algo, les bases de donnees, graphes UML, les design patterns, linux, la securite etc.
Plus il faut des notions avancees en statistiques avant d'aller plus loin, import un modele HuggingFace pour l'utiliser sans comprendre son fonctionnement ne fera pas un data scientist.Je parle d'apprendre à utiliser des outils IA pour être plus productif.
Prendre plus de temps à penser au projet plutôt qu'à sa réalisation.
On est encore loin de pouvoir confier la realisation d'un projet a une IA
Et puis c'est comme si tu allais dans une ecole d'art pour qu'on t'apprennes a generer des images avec un prompt, ca ne fait aucun sens
Personnellement en tant qu’utilisateur lambda de l’IA, utilisation quotidienne et non professionnel car je travail dans un métier manuel donc l’IA ne me sert à rien, ce qui a changé dans ma vie c’est le fait de ne plus avoir à chercher moi même sur Google, c’est un gain de temps colossal mais en même temps le point négatif que j’ai déjà pu remarquer c’est que ça provoque (déjà) une atrophie de la curiosité, de mon goût de l’effort et de la recherche
Enfin je sais pas trop comment expliquer avec mon IQ moyen, mais en tout cas je perçois déjà les effet pervers de l’utilisation de l’IA sur mon comportement quotidien
Quand on avait que Google on était obligé de faire un effort de recherche nous même, là où l’IA fait tout le travail à notre place
Le 13 septembre 2024 à 08:45:42 :
vivement que cette bulle spéculative explose.
Ça me rappelle beaucoup la hype de la blockchain tout ça
"ALEEERT CHAT GPT A BIEN AVANCÉ"
Évolution : chat gpt prend plus de temps pour répondre
La bulle internet a aussi explosé en 2002.
Et 20 ans après qui gouverne le monde?
La "hype" de la blockchain le bitcoin est à 60k...
Ca veut dire que les investisseurs y croient toujours 15 ans après.
Les premiers benchmarks indépendants et SANS contamination (car c'est très facile pour un LLM de s'entraîner en avance sur des problèmes et leurs solutions) sont sortis sur livebench : https://livebench.ai/
Dont j'invite à lire la méthodologie si certains doutent : https://arxiv.org/abs/2406.19314
C'est loin d'être la révolution attendue (comme dit c'est sans doute 4o et 4o mini fine-tuned pour consommer 20x plus de tokens dans une chain of thoughts pas montrée à l'utilisateur, avec une UX qui laisse penser que ça réfléchit), surtout en code où o1 n'est que 3e, derrière des modèles/API classiques.
Très fort en langues et en maths cependant, et en "raisonnement" (je mets les guillemets car c'est un attribut qu'il faut utiliser avec parcimonie, on est loin d'un raisonnement humain, ni même de le comprendre d'ailleurs), ce qui le place en n°1 globalement, mais c'est un peu décevant compte tenu de la sur-consommation en inférence. Et si les résultats ne sont pas forcément meilleurs par rapport à une inférence classique, difficile de soi-même choisir quand utiliser o1 et justifie son coût.
Il pourrait faire le taf ?
Données du topic
- Auteur
- Parikola69
- Date de création
- 12 septembre 2024 à 19:19:47
- Nb. messages archivés
- 382
- Nb. messages JVC
- 371