Topic de Parikola69 :

[ALERTE] NOUVEAU MODELE DE OPENAI (CHATGPT) ULTRA INTELLIGENT

Le 13 septembre 2024 à 08:17:24 PseudoBan118 a écrit :

Le 13 septembre 2024 à 08:12:41 :
N'empêche les cours universitaires vont vite être dépassés en Fronce :rire:

Les programmes ne parleront pas de l'IA avant 2030 :rire:

Le vieux prof boomer qui n'a pas travaillé en entreprise depuis 20 ans avec ses cours périmés :rire:

Dans mon master il y a quelques annees on parlait deja d'IA et j'ai etudier le machine learning alors non, l'universite n'est pas depasse.

Par contre les entreprises sont a la ramasses sur les technos et elles ne comprennent pas ce qu'on peut faire avec
On m'a sorti une fois "une regression linaire on peut la faire sous Excel, pourquoi utiliser Python?" :pf:

Je ne parle pas de master en machine learning, mais des DUT/BTS.

Le 12 septembre 2024 à 19:25:17 :
Dans 10 ans on pourra se créer un jeux vidéo ou un film personnel juste en tapant deux trois trucs

non on va taper un mur très vite, là ça explose car c'est le début mais ça va vite avoir ses limites

notamment niveau serveurs

Le 13 septembre 2024 à 08:17:38 :
Je me sers de Chatgpt pour le boulot (dans la banque et la finance, ça m'aide beaucoup :( )

Mais je connais pas assez le milieu des IA, franchement je suis prêt à payer pour avoir une IA incroyable, selon vous quel est le meilleur rapport qualité/prix ? :(

Continue avec Chatgpt pour l'instant, les autres IA payantes utilisent des modeles de GPT anterieurs

On voit qu'on se dirige plutôt vers des modèles spécialisés que de l'AGI pour l'instant.

Whisper Large V2 est bien meilleur que Gemini pour de la transcription d'audio, c'est 100x plus rapide, 100x moins cher et plus précis.

De même pour l'OCR, la génération d'images (Flux).

C'est la suite logique de l'évolution technologique, ça serait vraiment con d'avoir encore besoin de personnes capable de programmer des sites web,JV,app ect... dans 20-30 ans, c'est un métier abrutissant fait pour les abrutis.

Le 13 septembre 2024 à 08:10:35 :
18 pages alors qu'on peut pas tester :hap:

Bah si le modèle est accessible

Le 13 septembre 2024 à 08:19:52 :

Le 13 septembre 2024 à 08:17:24 PseudoBan118 a écrit :

Le 13 septembre 2024 à 08:12:41 :
N'empêche les cours universitaires vont vite être dépassés en Fronce :rire:

Les programmes ne parleront pas de l'IA avant 2030 :rire:

Le vieux prof boomer qui n'a pas travaillé en entreprise depuis 20 ans avec ses cours périmés :rire:

Dans mon master il y a quelques annees on parlait deja d'IA et j'ai etudier le machine learning alors non, l'universite n'est pas depasse.

Par contre les entreprises sont a la ramasses sur les technos et elles ne comprennent pas ce qu'on peut faire avec
On m'a sorti une fois "une regression linaire on peut la faire sous Excel, pourquoi utiliser Python?" :pf:

Je parle pas de master en machine learning, mais des DUT/BTS.

On apprend pas l'IA en DUT BTS, a la limite les concepts du singleton et reseaux de neurones mais c'est tout.
Il y a deja trop de choses a apprendre pour un developpeur, entre la prog objet, l'algo, les bases de donnees, graphes UML, les design patterns, linux, la securite etc.
Plus il faut des notions avancees en statistiques avant d'aller plus loin, import un modele HuggingFace pour l'utiliser sans comprendre son fonctionnement ne fera pas un data scientist.

Gpt 4 a couté 100M à entrainer. OpenAI va faire une levée de fonds pour 6,5 Ma.

https://www.clubic.com/actualite-537299-openai-une-nouvelle-levee-de-fonds-xxl-en-approche-mais-pourquoi-faire.html

Il va falloir rentabiliser au bout d'un moment. Pour l'instant, ils brulent des valises de cash :hap:

Le 13 septembre 2024 à 08:25:21 :
Gpt 4 a couté 100M à entrainer. OpenAI va faire une levée de fonds pour 6,5 Ma.

https://www.clubic.com/actualite-537299-openai-une-nouvelle-levee-de-fonds-xxl-en-approche-mais-pourquoi-faire.html

Il va falloir rentabiliser au bout d'un moment. Pour l'instant, ils brulent des valises de cash :hap:

Exactement faut rentabiliser mais comment mesurer la rentabilité du gain de temps effectué grâce aux IA génératives ? :hap:

Le 13 septembre 2024 à 08:24:59 PseudoBan118 a écrit :

Le 13 septembre 2024 à 08:19:52 :

Le 13 septembre 2024 à 08:17:24 PseudoBan118 a écrit :

Le 13 septembre 2024 à 08:12:41 :
N'empêche les cours universitaires vont vite être dépassés en Fronce :rire:

Les programmes ne parleront pas de l'IA avant 2030 :rire:

Le vieux prof boomer qui n'a pas travaillé en entreprise depuis 20 ans avec ses cours périmés :rire:

Dans mon master il y a quelques annees on parlait deja d'IA et j'ai etudier le machine learning alors non, l'universite n'est pas depasse.

Par contre les entreprises sont a la ramasses sur les technos et elles ne comprennent pas ce qu'on peut faire avec
On m'a sorti une fois "une regression linaire on peut la faire sous Excel, pourquoi utiliser Python?" :pf:

Je parle pas de master en machine learning, mais des DUT/BTS.

On apprend pas l'IA en DUT BTS, a la limite les concepts du singleton et reseaux de neurones mais c'est tout.
Il y a deja trop de choses a apprendre pour un developpeur, entre la prog objet, l'algo, les bases de donnees, graphes UML, les design patterns, linux, la securite etc.
Plus il faut des notions avancees en statistiques avant d'aller plus loin, import un modele HuggingFace pour l'utiliser sans comprendre son fonctionnement ne fera pas un data scientist.

Je parle d'apprendre à utiliser des outils IA pour être plus productif.
Prendre plus de temps à penser au projet plutôt qu'à sa réalisation.

Le 13 septembre 2024 à 08:26:54 :

Le 13 septembre 2024 à 08:24:59 PseudoBan118 a écrit :

Le 13 septembre 2024 à 08:19:52 :

Le 13 septembre 2024 à 08:17:24 PseudoBan118 a écrit :

Le 13 septembre 2024 à 08:12:41 :
N'empêche les cours universitaires vont vite être dépassés en Fronce :rire:

Les programmes ne parleront pas de l'IA avant 2030 :rire:

Le vieux prof boomer qui n'a pas travaillé en entreprise depuis 20 ans avec ses cours périmés :rire:

Dans mon master il y a quelques annees on parlait deja d'IA et j'ai etudier le machine learning alors non, l'universite n'est pas depasse.

Par contre les entreprises sont a la ramasses sur les technos et elles ne comprennent pas ce qu'on peut faire avec
On m'a sorti une fois "une regression linaire on peut la faire sous Excel, pourquoi utiliser Python?" :pf:

Je parle pas de master en machine learning, mais des DUT/BTS.

On apprend pas l'IA en DUT BTS, a la limite les concepts du singleton et reseaux de neurones mais c'est tout.
Il y a deja trop de choses a apprendre pour un developpeur, entre la prog objet, l'algo, les bases de donnees, graphes UML, les design patterns, linux, la securite etc.
Plus il faut des notions avancees en statistiques avant d'aller plus loin, import un modele HuggingFace pour l'utiliser sans comprendre son fonctionnement ne fera pas un data scientist.

Je parle d'apprendre à utiliser des outils IA pour être plus productif.
Prendre plus de temps à penser au projet plutôt qu'à sa réalisation.

On est encore loin de pouvoir confier la realisation d'un projet a une IA
Et puis c'est comme si tu allais dans une ecole d'art pour qu'on t'apprennes a generer des images avec un prompt, ca ne fait aucun sens

Personnellement en tant qu’utilisateur lambda de l’IA, utilisation quotidienne et non professionnel car je travail dans un métier manuel donc l’IA ne me sert à rien, ce qui a changé dans ma vie c’est le fait de ne plus avoir à chercher moi même sur Google, c’est un gain de temps colossal mais en même temps le point négatif que j’ai déjà pu remarquer c’est que ça provoque (déjà) une atrophie de la curiosité, de mon goût de l’effort et de la recherche

Enfin je sais pas trop comment expliquer avec mon IQ moyen, mais en tout cas je perçois déjà les effet pervers de l’utilisation de l’IA sur mon comportement quotidien

Quand on avait que Google on était obligé de faire un effort de recherche nous même, là où l’IA fait tout le travail à notre place

vivement que cette bulle spéculative explose.

Le 13 septembre 2024 à 08:45:42 :
vivement que cette bulle spéculative explose.

Ça me rappelle beaucoup la hype de la blockchain tout ça :rire:

"ALEEERT CHAT GPT A BIEN AVANCÉ"

Évolution : chat gpt prend plus de temps pour répondre

Et ce qu'il sait compter jusqu'à l'infini et lacer les chaussures de l'existence ?

La bulle internet a aussi explosé en 2002.
Et 20 ans après qui gouverne le monde?

La "hype" de la blockchain le bitcoin est à 60k...
Ca veut dire que les investisseurs y croient toujours 15 ans après.

Le 13 septembre 2024 à 13:31:59 :
"ALEEERT CHAT GPT A BIEN AVANCÉ"

Évolution : chat gpt prend plus de temps pour répondre

https://image.noelshack.com/fichiers/2024/37/5/1726235875-4w7avak8xeod1.png
Ca va chialer dans un avenir pas très lointain https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png

Les premiers benchmarks indépendants et SANS contamination (car c'est très facile pour un LLM de s'entraîner en avance sur des problèmes et leurs solutions) sont sortis sur livebench : https://livebench.ai/
Dont j'invite à lire la méthodologie si certains doutent : https://arxiv.org/abs/2406.19314

C'est loin d'être la révolution attendue (comme dit c'est sans doute 4o et 4o mini fine-tuned pour consommer 20x plus de tokens dans une chain of thoughts pas montrée à l'utilisateur, avec une UX qui laisse penser que ça réfléchit), surtout en code où o1 n'est que 3e, derrière des modèles/API classiques.

Très fort en langues et en maths cependant, et en "raisonnement" (je mets les guillemets car c'est un attribut qu'il faut utiliser avec parcimonie, on est loin d'un raisonnement humain, ni même de le comprendre d'ailleurs), ce qui le place en n°1 globalement, mais c'est un peu décevant compte tenu de la sur-consommation en inférence. Et si les résultats ne sont pas forcément meilleurs par rapport à une inférence classique, difficile de soi-même choisir quand utiliser o1 et justifie son coût.

J'ai besoin d'un juriste pour peaufiner les CGV de mon site web.
Il pourrait faire le taf ?

Données du topic

Auteur
Parikola69
Date de création
12 septembre 2024 à 19:19:47
Nb. messages archivés
382
Nb. messages JVC
371
En ligne sur JvArchive 85