Topic de Prototo233 :

Chat GPT et les maths

Samantha a 8 bonbons ; Georges a autant de bonbon que Peter ; Peter a le double de bonbon que Samantha et Georges. Combien y'a t il de bonbons en tout ?

réponse chat gpt :

Nous avons les informations suivantes :

Samantha a 8 bonbons.
Georges a autant de bonbons que Peter.
Peter a le double de bonbons que Samantha et Georges.
Donc, si nous désignons le nombre de bonbons que Georges a comme G, et le nombre de bonbons que Peter a comme P :

S=8
G=P
P=2(S+G)

Substituons
S par 8 dans l'Ă©quation 3 :
P=2(8+G)
P=16+2G

Et comme
G=P, nous pouvons substituer P par G :

G=16+2G

En soustrayant 2G des deux côtés, nous obtenons :
G=16

Maintenant, puisque
G=P, cela signifie que Peter a Ă©galement 16 bonbons. Et comme
S=8, nous pouvons calculer le total :

Total de bonbons=S+G+P
Total de bonbons=8+16+16
Total de bonbons=40

Il y a donc 40 bonbons au total.

:rire:

c'est ça l'avenir ? :rire:

votre prof particulier a parlé :rire:

c'est pas 42 MAIS 40 !! :rire:

Du coup c’est quoi la réponse + explications ?

Rien que la question est mĂŞme pas bien ecrite

Chatgpt est nul en maths, y a que les golems qui croient qu'elle est capable d'en faire alors qu'elle est pas programmée pour ça. La seule actuelle qui en fait est Deepmind https://www.lemonde.fr/sciences/article/2024/01/17/une-intelligence-artificielle-fait-ses-preuves-en-maths_6211368_1650684.html
  1. DĂ©finition des variables

S = 8 # Samantha
G = P = 0 # Initialement, on ne connait pas le nombre de bonbons de Georges et Peter

  1. Équations
  2. G = P déjà défini par la définition des variables
  3. Calculons P en utilisant la troisième équation

P = 2 * (S + G)

  1. Mettons Ă  jour G avec la valeur de P puisque G = P

G = P

  1. Calculons le total des bonbons

total_bonbons = S + G + P
total_bonbons

Result
40

Le 30 mars 2024 Ă  13:08:22 :
Chatgpt est nul en maths, y a que les golems qui croient qu'elle est capable d'en faire alors qu'elle est pas programmée pour ça. La seule actuelle qui en fait est Deepmind https://www.lemonde.fr/sciences/article/2024/01/17/une-intelligence-artificielle-fait-ses-preuves-en-maths_6211368_1650684.html

Du coup c’est quoi la réponse + explications ?

Rien que la question est même pas bien ecrite, « Peter a le double de bonbon que Samantha et Georges » ???

Le 30 mars 2024 Ă  13:11:22 :

Le 30 mars 2024 Ă  13:08:22 :
Chatgpt est nul en maths, y a que les golems qui croient qu'elle est capable d'en faire alors qu'elle est pas programmée pour ça. La seule actuelle qui en fait est Deepmind https://www.lemonde.fr/sciences/article/2024/01/17/une-intelligence-artificielle-fait-ses-preuves-en-maths_6211368_1650684.html

Du coup c’est quoi la réponse + explications ?

Rien que la question est même pas bien ecrite, « Peter a le double de bonbon que Samantha et Georges » ???

justement, c'était ça l'exercice :rire:

Le 30 mars 2024 Ă  13:12:57 :

Le 30 mars 2024 Ă  13:11:22 :

Le 30 mars 2024 Ă  13:08:22 :
Chatgpt est nul en maths, y a que les golems qui croient qu'elle est capable d'en faire alors qu'elle est pas programmée pour ça. La seule actuelle qui en fait est Deepmind https://www.lemonde.fr/sciences/article/2024/01/17/une-intelligence-artificielle-fait-ses-preuves-en-maths_6211368_1650684.html

Du coup c’est quoi la réponse + explications ?

Rien que la question est même pas bien ecrite, « Peter a le double de bonbon que Samantha et Georges » ???

justement, c'était ça l'exercice :rire:

https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png

Le 30 mars 2024 Ă  13:15:21 :

Le 30 mars 2024 Ă  13:12:57 :

Le 30 mars 2024 Ă  13:11:22 :

Le 30 mars 2024 Ă  13:08:22 :
Chatgpt est nul en maths, y a que les golems qui croient qu'elle est capable d'en faire alors qu'elle est pas programmée pour ça. La seule actuelle qui en fait est Deepmind https://www.lemonde.fr/sciences/article/2024/01/17/une-intelligence-artificielle-fait-ses-preuves-en-maths_6211368_1650684.html

Du coup c’est quoi la réponse + explications ?

Rien que la question est même pas bien ecrite, « Peter a le double de bonbon que Samantha et Georges » ???

justement, c'était ça l'exercice :rire:

https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png

cool ton prof particulier :rire:

Chatgpt est bon en maths, seul les golems diront l'inverse. Il a très souvent les bons raisonnements, son problème c'est juste des erreurs de calcul mental, donc pas des maths à proprement parlé. Il suffit de relire ce qu'il dit et ne pas C/C bêtement.
Recette d'omelette aux oeufs de vache
conclusion: l'op ne sait pas poser une question
Pour les maths Claude est meilleur

Le 30 mars 2024 Ă  13:28:36 :
conclusion: l'op ne sait pas poser une question

3 bananes + 5 bananes ça fait combien de pommes ? Le résultat n’est pas 0 https://image.noelshack.com/fichiers/2019/22/4/1559206820-atade.png

Le 30 mars 2024 Ă  13:30:14 :

Le 30 mars 2024 Ă  13:28:36 :
conclusion: l'op ne sait pas poser une question

3 bananes + 5 bananes ça fait combien de pommes ? Le résultat n’est pas 0 https://image.noelshack.com/fichiers/2019/22/4/1559206820-atade.png

la grammaire ça compte dans un énoncé, surtout pour une IA
tu sembles limité

Le 30 mars 2024 Ă  13:28:36 :
conclusion: l'op ne sait pas poser une question

conclusion : t'es humain, lui ne détecte pas d'incohérence et pose l'opération malgré l'incohérence du départ (volontaire de ma part).

Le but est bien évidemment qu'il se pose la question du raisonnement global avant de poser toute opération. :ok:

Le 30 mars 2024 Ă  13:37:50 :

Le 30 mars 2024 Ă  13:33:20 :

Le 30 mars 2024 Ă  13:28:36 :
conclusion: l'op ne sait pas poser une question

conclusion : t'es humain, lui ne détecte pas d'incohérence et pose l'opération malgré l'incohérence du départ (volontaire de ma part).

Le but est bien évidemment qu'il se pose la question du raisonnement global avant de poser toute opération. :ok:

Et donc tu veux prouver quoi ? C’est comme si tu disais à un tournevis cruciforme de dévisser une vis à tête plate

qu'il est nul en math, qu'il n'a aucune logique et que ça date pas d'hier

le problème semble être structurel donc je vois mal comment il pourrait évoluer dans le bon sens

Le 30 mars 2024 Ă  13:41:09 :

Le 30 mars 2024 Ă  13:37:50 :

Le 30 mars 2024 Ă  13:33:20 :

Le 30 mars 2024 Ă  13:28:36 :
conclusion: l'op ne sait pas poser une question

conclusion : t'es humain, lui ne détecte pas d'incohérence et pose l'opération malgré l'incohérence du départ (volontaire de ma part).

Le but est bien évidemment qu'il se pose la question du raisonnement global avant de poser toute opération. :ok:

Et donc tu veux prouver quoi ? C’est comme si tu disais à un tournevis cruciforme de dévisser une vis à tête plate

qu'il est nul en math, qu'il n'a aucune logique et que ça date pas d'hier

le problème semble être structurel donc je vois mal comment il pourrait évoluer dans le bon sens

Oui c’est un outils, bravo tu a compris le principe

Le 30 mars 2024 Ă  13:43:12 :

Le 30 mars 2024 Ă  13:41:09 :

Le 30 mars 2024 Ă  13:37:50 :

Le 30 mars 2024 Ă  13:33:20 :

Le 30 mars 2024 Ă  13:28:36 :
conclusion: l'op ne sait pas poser une question

conclusion : t'es humain, lui ne détecte pas d'incohérence et pose l'opération malgré l'incohérence du départ (volontaire de ma part).

Le but est bien évidemment qu'il se pose la question du raisonnement global avant de poser toute opération. :ok:

Et donc tu veux prouver quoi ? C’est comme si tu disais à un tournevis cruciforme de dévisser une vis à tête plate

qu'il est nul en math, qu'il n'a aucune logique et que ça date pas d'hier

le problème semble être structurel donc je vois mal comment il pourrait évoluer dans le bon sens

Oui c’est un outils, bravo tu a compris le principe

un outil peut Ă©voluer

lui stagne ... Sauf si la version pro me donne tort mais c'est clairement un problème structurel car le découpage des phrases est correct

Le 30 mars 2024 Ă  13:47:03 :

Le 30 mars 2024 Ă  13:43:12 :

Le 30 mars 2024 Ă  13:41:09 :

Le 30 mars 2024 Ă  13:37:50 :

Le 30 mars 2024 Ă  13:33:20 :

> Le 30 mars 2024 Ă  13:28:36 :

>conclusion: l'op ne sait pas poser une question

conclusion : t'es humain, lui ne détecte pas d'incohérence et pose l'opération malgré l'incohérence du départ (volontaire de ma part).

Le but est bien évidemment qu'il se pose la question du raisonnement global avant de poser toute opération. :ok:

Et donc tu veux prouver quoi ? C’est comme si tu disais à un tournevis cruciforme de dévisser une vis à tête plate

qu'il est nul en math, qu'il n'a aucune logique et que ça date pas d'hier

le problème semble être structurel donc je vois mal comment il pourrait évoluer dans le bon sens

Oui c’est un outils, bravo tu a compris le principe

un outil peut Ă©voluer

lui stagne ... Sauf si la version pro me donne tort mais c'est clairement un problème structurel car le découpage des phrases est correct

Comment ça un outil évolue ?

Données du topic

Auteur
Prototo233
Date de création
30 mars 2024 Ă  12:59:52
Nb. messages archivés
22
Nb. messages JVC
22
En ligne sur JvArchive 355