Chat GPT et les maths
Samantha a 8 bonbons ; Georges a autant de bonbon que Peter ; Peter a le double de bonbon que Samantha et Georges. Combien y'a t il de bonbons en tout ?
réponse chat gpt :
Nous avons les informations suivantes :
Samantha a 8 bonbons.
Georges a autant de bonbons que Peter.
Peter a le double de bonbons que Samantha et Georges.
Donc, si nous désignons le nombre de bonbons que Georges a comme G, et le nombre de bonbons que Peter a comme P :S=8
G=P
P=2(S+G)Substituons
S par 8 dans l'Ă©quation 3 :
P=2(8+G)
P=16+2GEt comme
G=P, nous pouvons substituer P par G :G=16+2G
En soustrayant 2G des deux côtés, nous obtenons :
G=16Maintenant, puisque
G=P, cela signifie que Peter a Ă©galement 16 bonbons. Et comme
S=8, nous pouvons calculer le total :Total de bonbons=S+G+P
Total de bonbons=8+16+16
Total de bonbons=40Il y a donc 40 bonbons au total.
c'est ça l'avenir ?
votre prof particulier a parlé
c'est pas 42 MAIS 40 !!
Du coup c’est quoi la réponse + explications ?
Rien que la question est mĂŞme pas bien ecrite
- DĂ©finition des variables
S = 8 # Samantha
G = P = 0 # Initialement, on ne connait pas le nombre de bonbons de Georges et Peter
- Équations
- G = P déjà défini par la définition des variables
- Calculons P en utilisant la troisième équation
P = 2 * (S + G)
- Mettons Ă jour G avec la valeur de P puisque G = P
G = P
- Calculons le total des bonbons
total_bonbons = S + G + P
total_bonbons
Result
40
Le 30 mars 2024 Ă 13:08:22 :
Chatgpt est nul en maths, y a que les golems qui croient qu'elle est capable d'en faire alors qu'elle est pas programmée pour ça. La seule actuelle qui en fait est Deepmind https://www.lemonde.fr/sciences/article/2024/01/17/une-intelligence-artificielle-fait-ses-preuves-en-maths_6211368_1650684.html
Du coup c’est quoi la réponse + explications ?
Rien que la question est même pas bien ecrite, « Peter a le double de bonbon que Samantha et Georges » ???
Le 30 mars 2024 Ă 13:11:22 :
Le 30 mars 2024 Ă 13:08:22 :
Chatgpt est nul en maths, y a que les golems qui croient qu'elle est capable d'en faire alors qu'elle est pas programmée pour ça. La seule actuelle qui en fait est Deepmind https://www.lemonde.fr/sciences/article/2024/01/17/une-intelligence-artificielle-fait-ses-preuves-en-maths_6211368_1650684.htmlDu coup c’est quoi la réponse + explications ?
Rien que la question est même pas bien ecrite, « Peter a le double de bonbon que Samantha et Georges » ???
justement, c'était ça l'exercice
Le 30 mars 2024 Ă 13:12:57 :
Le 30 mars 2024 Ă 13:11:22 :
Le 30 mars 2024 Ă 13:08:22 :
Chatgpt est nul en maths, y a que les golems qui croient qu'elle est capable d'en faire alors qu'elle est pas programmée pour ça. La seule actuelle qui en fait est Deepmind https://www.lemonde.fr/sciences/article/2024/01/17/une-intelligence-artificielle-fait-ses-preuves-en-maths_6211368_1650684.htmlDu coup c’est quoi la réponse + explications ?
Rien que la question est même pas bien ecrite, « Peter a le double de bonbon que Samantha et Georges » ???
justement, c'était ça l'exercice
Le 30 mars 2024 Ă 13:15:21 :
Le 30 mars 2024 Ă 13:12:57 :
Le 30 mars 2024 Ă 13:11:22 :
Le 30 mars 2024 Ă 13:08:22 :
Chatgpt est nul en maths, y a que les golems qui croient qu'elle est capable d'en faire alors qu'elle est pas programmée pour ça. La seule actuelle qui en fait est Deepmind https://www.lemonde.fr/sciences/article/2024/01/17/une-intelligence-artificielle-fait-ses-preuves-en-maths_6211368_1650684.htmlDu coup c’est quoi la réponse + explications ?
Rien que la question est même pas bien ecrite, « Peter a le double de bonbon que Samantha et Georges » ???
justement, c'était ça l'exercice
cool ton prof particulier
Le 30 mars 2024 Ă 13:28:36 :
conclusion: l'op ne sait pas poser une question
conclusion : t'es humain, lui ne détecte pas d'incohérence et pose l'opération malgré l'incohérence du départ (volontaire de ma part).
Le but est bien évidemment qu'il se pose la question du raisonnement global avant de poser toute opération.
Le 30 mars 2024 Ă 13:37:50 :
Le 30 mars 2024 Ă 13:33:20 :
Le 30 mars 2024 Ă 13:28:36 :
conclusion: l'op ne sait pas poser une questionconclusion : t'es humain, lui ne détecte pas d'incohérence et pose l'opération malgré l'incohérence du départ (volontaire de ma part).
Le but est bien évidemment qu'il se pose la question du raisonnement global avant de poser toute opération.
Et donc tu veux prouver quoi ? C’est comme si tu disais à un tournevis cruciforme de dévisser une vis à tête plate
qu'il est nul en math, qu'il n'a aucune logique et que ça date pas d'hier
le problème semble être structurel donc je vois mal comment il pourrait évoluer dans le bon sens
Le 30 mars 2024 Ă 13:41:09 :
Le 30 mars 2024 Ă 13:37:50 :
Le 30 mars 2024 Ă 13:33:20 :
Le 30 mars 2024 Ă 13:28:36 :
conclusion: l'op ne sait pas poser une questionconclusion : t'es humain, lui ne détecte pas d'incohérence et pose l'opération malgré l'incohérence du départ (volontaire de ma part).
Le but est bien évidemment qu'il se pose la question du raisonnement global avant de poser toute opération.
Et donc tu veux prouver quoi ? C’est comme si tu disais à un tournevis cruciforme de dévisser une vis à tête plate
qu'il est nul en math, qu'il n'a aucune logique et que ça date pas d'hier
le problème semble être structurel donc je vois mal comment il pourrait évoluer dans le bon sens
Oui c’est un outils, bravo tu a compris le principe
Le 30 mars 2024 Ă 13:43:12 :
Le 30 mars 2024 Ă 13:41:09 :
Le 30 mars 2024 Ă 13:37:50 :
Le 30 mars 2024 Ă 13:33:20 :
Le 30 mars 2024 Ă 13:28:36 :
conclusion: l'op ne sait pas poser une questionconclusion : t'es humain, lui ne détecte pas d'incohérence et pose l'opération malgré l'incohérence du départ (volontaire de ma part).
Le but est bien évidemment qu'il se pose la question du raisonnement global avant de poser toute opération.
Et donc tu veux prouver quoi ? C’est comme si tu disais à un tournevis cruciforme de dévisser une vis à tête plate
qu'il est nul en math, qu'il n'a aucune logique et que ça date pas d'hier
le problème semble être structurel donc je vois mal comment il pourrait évoluer dans le bon sens
Oui c’est un outils, bravo tu a compris le principe
un outil peut Ă©voluer
lui stagne ... Sauf si la version pro me donne tort mais c'est clairement un problème structurel car le découpage des phrases est correct
Le 30 mars 2024 Ă 13:47:03 :
Le 30 mars 2024 Ă 13:43:12 :
Le 30 mars 2024 Ă 13:41:09 :
Le 30 mars 2024 Ă 13:37:50 :
Le 30 mars 2024 Ă 13:33:20 :
> Le 30 mars 2024 Ă 13:28:36 :
>conclusion: l'op ne sait pas poser une question
conclusion : t'es humain, lui ne détecte pas d'incohérence et pose l'opération malgré l'incohérence du départ (volontaire de ma part).
Le but est bien évidemment qu'il se pose la question du raisonnement global avant de poser toute opération.
Et donc tu veux prouver quoi ? C’est comme si tu disais à un tournevis cruciforme de dévisser une vis à tête plate
qu'il est nul en math, qu'il n'a aucune logique et que ça date pas d'hier
le problème semble être structurel donc je vois mal comment il pourrait évoluer dans le bon sens
Oui c’est un outils, bravo tu a compris le principe
un outil peut Ă©voluer
lui stagne ... Sauf si la version pro me donne tort mais c'est clairement un problème structurel car le découpage des phrases est correct
Comment ça un outil évolue ?
Données du topic
- Auteur
- Prototo233
- Date de création
- 30 mars 2024 Ă 12:59:52
- Nb. messages archivés
- 22
- Nb. messages JVC
- 22