Chat GPT 4
Le 03 avril 2024 à 19:48:47 :
Le 03 avril 2024 à 19:48:00 :
Le 03 avril 2024 à 19:37:55 :
[17:52:55] <Tirie14_1>
Ce n'est pas aussi "simple"... Chat GPT n'est pas vraiment plus mauvais ou plus fainéant, mais plutôt qu'on s'est trop habitué, donc moins bluffé, mais est quand même un peu plus fainéant (en partie à cause de nous et de notre utilisation)
https://youtu.be/RFElI18_fac?si=id9iZnSSMx_al_HQ
+
https://www.youtube.com/watch?v=jPRz2CpNAwA
Mon cul oui c'est un trou du cul face a Claude 3.
J ai pas vu les bench de Claude 3. On peut l utiliser en France ou faut un VPN ?
Je comprends pas pourquoi vous êtes focalisés sur des benchs. Ca ne signifie pas grand chose finalement, c'est le résultat à l'utilisation qui compte
Je préfère Claude à GPT sérieusement, j'en ai rien à péter des bench
Claude 3 est devenu meilleur que GPT4 alors que le GPT4 de mars 2023 était objectivement le meilleur modèle existant et encore inégalé aujourd'hui (manquait juste les maths quoi)
D'ailleurs y a des recherches et même des études qui montrent qu'il est devenu moins performant avec le temps.
Le 03 avril 2024 à 19:44:10 PauvreTimbrax a écrit :
Le 03 avril 2024 à 19:37:55 :
[17:52:55] <Tirie14_1>
Ce n'est pas aussi "simple"... Chat GPT n'est pas vraiment plus mauvais ou plus fainéant, mais plutôt qu'on s'est trop habitué, donc moins bluffé, mais est quand même un peu plus fainéant (en partie à cause de nous et de notre utilisation)
https://youtu.be/RFElI18_fac?si=id9iZnSSMx_al_HQ
+
https://www.youtube.com/watch?v=jPRz2CpNAwA
https://image.noelshack.com/fichiers/2017/30/4/1501187858-risitassebestreup.pngMon cul oui c'est un trou du cul face a Claude 3.
Alors faut arrêter avec Claude et Mistral.
C'est pas parce que GPT 4 est bridé et moins bien qu'au printemps-été dernier qu'il est moins bon que la concurrence. Il reste largement au dessus de TOUT. Y a pas photo.
Je suis déçu qu'ils le brident mais c'est GPT 4 ou rien pour moi. En tout cas pour la conversation, la rédaction d'articles et s'informer il surclasse toute la concurrence.
Pour le code il a été rattrapé mais il n'est pas en dessous de Mistral. Ca se vaut. Et Gemini ça doit être pareil
Je pense que Gemini dans sa version gratuite est légèrement supérieur à GPT3.5, surtout que Gemini a la reconnaissance d'images dans sa version gratuite.
Pour GPT4 vs Claude 3, il me semble que ça a été démontré par plusieurs benchmarks, que Claude 3 le surclasse.
Le 03 avril 2024 à 20:01:39 Cyclasimia a écrit :
Claude 3 est devenu meilleur que GPT4 alors que le GPT4 de mars 2023 était objectivement le meilleur modèle existant et encore inégalé aujourd'hui (manquait juste les maths quoi)D'ailleurs y a des recherches et même des études qui montrent qu'il est devenu moins performant avec le temps.
Lien des études et recherches qui prouvent la dégradation de gpt 4 au fil du temps ?
Et aussi, pourquoi auraient-ils fait ça ?
Le 03 avril 2024 à 20:03:06 :
Le 03 avril 2024 à 20:01:39 Cyclasimia a écrit :
Claude 3 est devenu meilleur que GPT4 alors que le GPT4 de mars 2023 était objectivement le meilleur modèle existant et encore inégalé aujourd'hui (manquait juste les maths quoi)D'ailleurs y a des recherches et même des études qui montrent qu'il est devenu moins performant avec le temps.
Lien des études et recherches qui prouvent la dégradation de gpt 4 au fil du temps ?
Et aussi, pourquoi auraient-ils fait ça ?
Parce qu'un modèle qui consomme trop pour ses réponses le rend économiquement peu viable. Faut faire des économies où on peut.
https://arxiv.org/pdf/2307.09009.pdf
https://notes.aimodels.fyi/new-study-validates-user-rumors-of-degraded-chatgpt-performance/
Cite-moi.
Le 03 avril 2024 à 20:10:43 Cyclasimia a écrit :
Le 03 avril 2024 à 20:03:06 :
Le 03 avril 2024 à 20:01:39 Cyclasimia a écrit :
Claude 3 est devenu meilleur que GPT4 alors que le GPT4 de mars 2023 était objectivement le meilleur modèle existant et encore inégalé aujourd'hui (manquait juste les maths quoi)D'ailleurs y a des recherches et même des études qui montrent qu'il est devenu moins performant avec le temps.
Lien des études et recherches qui prouvent la dégradation de gpt 4 au fil du temps ?
Et aussi, pourquoi auraient-ils fait ça ?Parce qu'un modèle qui consomme trop pour ses réponses le rend économiquement peu viable. Faut faire des économies où on peut.
https://arxiv.org/pdf/2307.09009.pdf
https://notes.aimodels.fyi/new-study-validates-user-rumors-of-degraded-chatgpt-performance/
Cite-moi.
et ça ils ne pouvaient pas le savoir avant ?
Et puis GPT4 est payant.
EDIT : Si c'est la vraie raison, ça veut dire que y a une forte chance que la prochaine màj de GPT sera encore plus chère que l'abonnement actuel ?
À titre de comparaison, pour vous donner un ordre d'idée de ce que ça coûte de faire tourner un LLM, il faut une machine avec 300Go de VRAM pour faire tourner Grok en local (dispo en open source d'ailleurs si un khey a accès à une machine pareille )
Ça coûte une blinde et la performance est à mettre en relation avec les ressources allouées, plus un modèle est puissant et plus il demande de ressources donc coûte cher à faire tourner.
Le 03 avril 2024 à 20:14:54 :
Le 03 avril 2024 à 20:10:43 Cyclasimia a écrit :
Le 03 avril 2024 à 20:03:06 :
Le 03 avril 2024 à 20:01:39 Cyclasimia a écrit :
Claude 3 est devenu meilleur que GPT4 alors que le GPT4 de mars 2023 était objectivement le meilleur modèle existant et encore inégalé aujourd'hui (manquait juste les maths quoi)D'ailleurs y a des recherches et même des études qui montrent qu'il est devenu moins performant avec le temps.
Lien des études et recherches qui prouvent la dégradation de gpt 4 au fil du temps ?
Et aussi, pourquoi auraient-ils fait ça ?Parce qu'un modèle qui consomme trop pour ses réponses le rend économiquement peu viable. Faut faire des économies où on peut.
https://arxiv.org/pdf/2307.09009.pdf
https://notes.aimodels.fyi/new-study-validates-user-rumors-of-degraded-chatgpt-performance/
Cite-moi.
et ça ils ne pouvaient pas le savoir avant ?
Et puis GPT4 est payant.EDIT : Si c'est la vraie raison, ça veut dire que y a une forte chance que la prochaine màj de GPT sera encore plus chère que l'abonnement actuel ?
Pas vraiment, ça reste des modèles expérimentaux, ils ont absolument pas prévu d'être populaire à la base.
Le 03 avril 2024 à 20:16:40 Cyclasimia a écrit :
À titre de comparaison, pour vous donner un ordre d'idée de ce que ça coûte de faire tourner un LLM, il faut une machine avec 300Go de VRAM pour faire tourner Grok en local (dispo en open source d'ailleurs si un khey a accès à une machine pareille )Ça coûte une blinde et la performance est à mettre en relation avec les ressources allouées, plus un modèle est puissant et plus il demande de ressources donc coûte cher à faire tourner.
ça veut dire que si on voudrait avoir GPT3 ou 4 en local il faudrait un ordinateur surpuissant ?
En vrai elle apporte quoi de + la version payante ?
Je veux dire pour mon utilisation perso à moi :
- Je lui demande parfois des idées pour faires des trucs en sql un peu tordu.
- en C# pareil
Sinon je l'utilise pour me conseiller des produits, genre l'autre jours je lui donne des criteres pour une tablette, enfin ce genre de connerie.
On est d'accord que j'ai aucun avantage à prendre gpt 4 si?
Le 03 avril 2024 à 20:14:54 :
Le 03 avril 2024 à 20:10:43 Cyclasimia a écrit :
Le 03 avril 2024 à 20:03:06 :
Le 03 avril 2024 à 20:01:39 Cyclasimia a écrit :
Claude 3 est devenu meilleur que GPT4 alors que le GPT4 de mars 2023 était objectivement le meilleur modèle existant et encore inégalé aujourd'hui (manquait juste les maths quoi)D'ailleurs y a des recherches et même des études qui montrent qu'il est devenu moins performant avec le temps.
Lien des études et recherches qui prouvent la dégradation de gpt 4 au fil du temps ?
Et aussi, pourquoi auraient-ils fait ça ?Parce qu'un modèle qui consomme trop pour ses réponses le rend économiquement peu viable. Faut faire des économies où on peut.
https://arxiv.org/pdf/2307.09009.pdf
https://notes.aimodels.fyi/new-study-validates-user-rumors-of-degraded-chatgpt-performance/
Cite-moi.
et ça ils ne pouvaient pas le savoir avant ?
Et puis GPT4 est payant.EDIT : Si c'est la vraie raison, ça veut dire que y a une forte chance que la prochaine màj de GPT sera encore plus chère que l'abonnement actuel ?
Non. D'ailleurs ChatGPT est mis à jour quasi tous les 2 semaines avec un nouveau modèle. D'ailleurs quand tu payes pour l'API tu peux choisir un modèle particulier.
Pour GPT5 j'imagine que l'un des objectifs est de réussir à le faire consommer moins tout en réussissant à lui faire réaliser des prompts avec une meilleure efficacité.
Techniquement il serait possible de faire un super-GPT4 qui coûterait plus cher à faire tourner. Mais ça doit être une volonté d'open ai de le laisser à son niveau actuel pour tout le monde.
Le 03 avril 2024 à 20:19:09 Cyclasimia a écrit :
Le 03 avril 2024 à 20:14:54 :
Le 03 avril 2024 à 20:10:43 Cyclasimia a écrit :
Le 03 avril 2024 à 20:03:06 :
Le 03 avril 2024 à 20:01:39 Cyclasimia a écrit :
Claude 3 est devenu meilleur que GPT4 alors que le GPT4 de mars 2023 était objectivement le meilleur modèle existant et encore inégalé aujourd'hui (manquait juste les maths quoi)D'ailleurs y a des recherches et même des études qui montrent qu'il est devenu moins performant avec le temps.
Lien des études et recherches qui prouvent la dégradation de gpt 4 au fil du temps ?
Et aussi, pourquoi auraient-ils fait ça ?Parce qu'un modèle qui consomme trop pour ses réponses le rend économiquement peu viable. Faut faire des économies où on peut.
https://arxiv.org/pdf/2307.09009.pdf
https://notes.aimodels.fyi/new-study-validates-user-rumors-of-degraded-chatgpt-performance/
Cite-moi.
et ça ils ne pouvaient pas le savoir avant ?
Et puis GPT4 est payant.EDIT : Si c'est la vraie raison, ça veut dire que y a une forte chance que la prochaine màj de GPT sera encore plus chère que l'abonnement actuel ?
Non. D'ailleurs ChatGPT est mis à jour quasi tous les 2 semaines avec un nouveau modèle. D'ailleurs quand tu payes pour l'API tu peux choisir un modèle particulier.
Pour GPT5 j'imagine que l'un des objectifs est de réussir à le faire consommer moins tout en réussissant à lui faire réaliser des prompts avec une meilleure efficacité.
Techniquement il serait possible de faire un super-GPT4 qui coûterait plus cher à faire tourner. Mais ça doit être une volonté d'open ai de le laisser à son niveau actuel pour tout le monde.
Qu'apportent concrètement ces mises à jour chaque deux semaines ? C'est rien de comparable avec chaque màj majeure, du coup ça répond pas à la question.
Le 03 avril 2024 à 20:19:04 :
En vrai elle apporte quoi de + la version payante ?Je veux dire pour mon utilisation perso à moi :
- Je lui demande parfois des idées pour faires des trucs en sql un peu tordu.
- en C# pareil
Sinon je l'utilise pour me conseiller des produits, genre l'autre jours je lui donne des criteres pour une tablette, enfin ce genre de connerie.
On est d'accord que j'ai aucun avantage à prendre gpt 4 si?
Il lit les PDF, les powerpoint, il est capable de réaliser par exemple un diagnostic médical si tu lui montres une photo d'un bouton ou de résoudre un captcha.
GPT 3.5 fait les réponses en fonction de la probabilité. Demande lui les ingrédients d'une omelette avec des oeufs de vache, il te donnera la recette sans t'expliquer que les oeufs de vache ça n'existe pas. C'est un LLM basique qui ne croise pas les données et qui peut raconter n'importe quoi, alors que GPT4 croise les infos.
Le 03 avril 2024 à 20:21:34 Cyclasimia a écrit :
Le 03 avril 2024 à 20:19:04 :
En vrai elle apporte quoi de + la version payante ?Je veux dire pour mon utilisation perso à moi :
- Je lui demande parfois des idées pour faires des trucs en sql un peu tordu.
- en C# pareil
Sinon je l'utilise pour me conseiller des produits, genre l'autre jours je lui donne des criteres pour une tablette, enfin ce genre de connerie.
On est d'accord que j'ai aucun avantage à prendre gpt 4 si?
Il lit les PDF, les powerpoint, il est capable de réaliser par exemple un diagnostic médical si tu lui montres une photo d'un bouton ou de résoudre un captcha.
GPT 3.5 fait les réponses en fonction de la probabilité. Demande lui les ingrédients d'une omelette avec des oeufs de vache, il te donnera la recette sans t'expliquer que les oeufs de vache ça n'existe pas. C'est un LLM basique qui ne croise pas les données et qui peut raconter n'importe quoi, alors que GPT4 croise les infos.
GPT 4 aussi raconte n'importe quoi, il hallucine.
Le 03 avril 2024 à 20:22:40 :
j'ai gpt4 depuis day one, j'ai résilié il y a quelque jours, il est devenu inutile
Tu l'as remplacé par quoi à titre perso?
Franchement j'hésite aussi j'en ai rien à foutre de 20$/mois mais jusre pour le principe.
Le 03 avril 2024 à 20:20:52 :
Le 03 avril 2024 à 20:19:09 Cyclasimia a écrit :
Le 03 avril 2024 à 20:14:54 :
Le 03 avril 2024 à 20:10:43 Cyclasimia a écrit :
Le 03 avril 2024 à 20:03:06 :
> Le 03 avril 2024 à 20:01:39 Cyclasimia a écrit :
>Claude 3 est devenu meilleur que GPT4 alors que le GPT4 de mars 2023 était objectivement le meilleur modèle existant et encore inégalé aujourd'hui (manquait juste les maths quoi)
>
> D'ailleurs y a des recherches et même des études qui montrent qu'il est devenu moins performant avec le temps.
Lien des études et recherches qui prouvent la dégradation de gpt 4 au fil du temps ?
Et aussi, pourquoi auraient-ils fait ça ?Parce qu'un modèle qui consomme trop pour ses réponses le rend économiquement peu viable. Faut faire des économies où on peut.
https://arxiv.org/pdf/2307.09009.pdf
https://notes.aimodels.fyi/new-study-validates-user-rumors-of-degraded-chatgpt-performance/
Cite-moi.
et ça ils ne pouvaient pas le savoir avant ?
Et puis GPT4 est payant.EDIT : Si c'est la vraie raison, ça veut dire que y a une forte chance que la prochaine màj de GPT sera encore plus chère que l'abonnement actuel ?
Non. D'ailleurs ChatGPT est mis à jour quasi tous les 2 semaines avec un nouveau modèle. D'ailleurs quand tu payes pour l'API tu peux choisir un modèle particulier.
Pour GPT5 j'imagine que l'un des objectifs est de réussir à le faire consommer moins tout en réussissant à lui faire réaliser des prompts avec une meilleure efficacité.
Techniquement il serait possible de faire un super-GPT4 qui coûterait plus cher à faire tourner. Mais ça doit être une volonté d'open ai de le laisser à son niveau actuel pour tout le monde.
Qu'apportent concrètement ces mises à jour chaque deux semaines ? C'est rien de comparable avec chaque màj majeure, du coup ça répond pas à la question.
Les maj corrigent des bugs mineurs, adaptent la censure, ajoutent du contenu à la database, et des corrections mineures de ce style.
Le modèle de juin de GPT 3.5 par exemple (qui va bientôt être supprimé de l'API) a une censure très faible comparé aux modèles de maintenant.
Données du topic
- Auteur
- lachechesynchro
- Date de création
- 3 avril 2024 à 17:49:22
- Nb. messages archivés
- 47
- Nb. messages JVC
- 46