Topic de girafeur707 :

[ALERTE] COMMENT fonctionne CHATGPT et l'IA

Le 23 février 2023 à 01:07:16 :

Le 23 février 2023 à 00:49:23 :

Le 23 février 2023 à 00:33:01 :

Le 23 février 2023 à 00:20:20 :

Le 23 février 2023 à 00:14:25 :

> Le 23 février 2023 à 00:06:57 :

>>On est loin d'imiter l'intelligence des humains

>

> Personne n'a dit que c'était le cas mais les reseaux neuronales s'inspirent des réseaux de neurones biologique c'est un fait indiscutable

PLS intégrale pour toi !

https://image.noelshack.com/fichiers/2023/08/4/1677107651-sans-titre.png

https://image.noelshack.com/fichiers/2023/08/4/1677107990-chat-gpt.png

PLS QUINTUPLE INTEGRALE !!

tu cites l'IA qui dit que "réseaux" est un nom féminin pluriel WTF??!!

On dit un réseau pas une réseau !
Ensuite on dit un neurone, pas une neurone !
Ca ne peut être qu'un réseau neuronal ou des réseaux neuronaux !

Tu ne comprends même pas que l'IA te raconte du pipeau mais tu veux nous parler d'IA?

neuronales existe bien au pluriel https://fr.wiktionary.org/wiki/neuronale


arrête tu t'enfonces !!!

une communication neuronale existe parce que le nom communication est féminin. On dit une communication.
un réseau est masculin, un réseau ! pas une réseau !, ce ne peut être qu'un réseau neuronal.

effectivement on dit des réseaux neuronaux mais par contre on dirait des connexions neuronales et non neuronaux, le fait que neurone soit masculin n'a rien à voir là dedans
même en voulant corriger les gens t'arrives à avoir qu'à moitié raison, bravo

Le 23 février 2023 à 01:10:39 :

Le 23 février 2023 à 01:07:16 :

Le 23 février 2023 à 00:49:23 :

Le 23 février 2023 à 00:33:01 :

Le 23 février 2023 à 00:20:20 :

> Le 23 février 2023 à 00:14:25 :

>> Le 23 février 2023 à 00:06:57 :

> >>On est loin d'imiter l'intelligence des humains

> >

> > Personne n'a dit que c'était le cas mais les reseaux neuronales s'inspirent des réseaux de neurones biologique c'est un fait indiscutable

>

> PLS intégrale pour toi !

>

> https://image.noelshack.com/fichiers/2023/08/4/1677107651-sans-titre.png

https://image.noelshack.com/fichiers/2023/08/4/1677107990-chat-gpt.png

PLS QUINTUPLE INTEGRALE !!

tu cites l'IA qui dit que "réseaux" est un nom féminin pluriel WTF??!!

On dit un réseau pas une réseau !
Ensuite on dit un neurone, pas une neurone !
Ca ne peut être qu'un réseau neuronal ou des réseaux neuronaux !

Tu ne comprends même pas que l'IA te raconte du pipeau mais tu veux nous parler d'IA?

neuronales existe bien au pluriel https://fr.wiktionary.org/wiki/neuronale


arrête tu t'enfonces !!!

une communication neuronale existe parce que le nom communication est féminin. On dit une communication.
un réseau est masculin, un réseau ! pas une réseau !, ce ne peut être qu'un réseau neuronal.

effectivement on dit des réseaux neuronaux mais par contre on dirait des connexions neuronales et non neuronaux, le fait que neurone soit masculin n'a rien à voir là dedans
même en voulant corriger les gens t'arrives à avoir qu'à moitié raison, bravo

une connexion neuronale parce que connexion est féminin.

Le 22 février 2023 à 23:15:16 :
Dit lui que t'as planté un oeuf dans ton jardin pour faire pousser un oeutier, mais que ta dernière récolte était particulièrement mauvaise (juste deux oeufs minuscules) et que les feuilles avaient une apparence bizarre. Demande lui conseil pour faire mieux à la saison prochaine.

https://image.noelshack.com/fichiers/2023/08/4/1677117508-capturfffoe.png https://image.noelshack.com/fichiers/2017/21/1495731382-bloggif-59270c889898b.png

celestin decouvre les chaines de markov
Attention, certains petits futés peuvent s'amuser à faire de faux screens de mes dires, ne les croyez pas. https://image.noelshack.com/fichiers/2023/03/4/1674139034-clairechatgpt.gif

Le 22 février 2023 à 23:37:40 :

Le 22 février 2023 à 23:31:06 :

Le 22 février 2023 à 23:26:06 :

Le 22 février 2023 à 23:23:36 :

Le 22 février 2023 à 23:22:13 :

> Le 22 février 2023 à 23:20:11 :

>> Le 22 février 2023 à 23:14:50 :

> >> Le 22 février 2023 à 23:13:43 :

> > >> Le 22 février 2023 à 23:11:11 :

> > > >L'OP en sang :rire:

> > > > ChatGPT > all

> > > >

> > > > https://image.noelshack.com/fichiers/2023/08/3/1677103866-screenshot-2023-02-22-at-14-09-41.png

> > >

> > > Tu as juste montré, comme l'OP, qu'il faisait rien d'autre que repondre à ta question de la maniere que tu as voulu qu'il te reponde. Il reconnait la forme de question, et il y repond avec la forme de reponse qu'il a appris.

> > >

> > > Ta question etait en oui/non, donc il a repondu non.

> > >

> > > Faisons un test : dis lui " tu as tort " pour rigoler et tu verras ce qu'il se passe

> >

> > https://image.noelshack.com/fichiers/2023/08/3/1677104085-screenshot-2023-02-22-at-14-14-30.png

>

> Vérifier l'information ? Il cherche bien sur le net alors.

non il ne cherche pas sur le net, le corpus s'arrête en 2021. Il a tout dans sa base de données.

C'est pareil, il cherche dans son intranet qu'il a cloné d'internet à un moment T.

non c'est plus un intranet du tout, c'est juste des coefficients de probabilités entre des mots, ce n'est pas du tout la même chose.

Pourquoi ça a défini l'existence d'oeufs d'ânes comme probable au point de donner les dimensions précises, tout en corrigeant l'auteur en lui disant que les vaches ne pondent pas d'oeufs ?


regarde la question de départ
"depuis quand un âne pond des oeufs?"

-ca sous entend qu'un âne ne pondait pas d'oeuf avant et que maintenant il en pondrait. tu induis donc la réponse.

compare avec la question :

"quelle est la différence entre un oeuf d'âne et un oeuf de poule"

Il faut faire tous les tests avec des comptes chatGPT différents, car si tu restes dans une même session il reste sur son acquis antérieur.
Donc "depuis quand un âne pond un oeuf", même avec un "tu as tort" ne le fera pas varier.

Mais si tu es dans une session différente avec "différence entre un oeuf d'âne et de poule", tu peux continuer et lui faire disserter sur la façon de cuisiner un oeuf d'âne, de les envoyer par avion chez les papous qui sont fort consommateurs d'oeufs d'âne....

c'est exactement le cas avec ma session https://image.noelshack.com/fichiers/2023/08/4/1677117746-capturfffoe.png tu as totalement raison.
c'est chaud comme l'auteur qui travaille dans l'ia et les connaisseurs se font traiter de débiles par des types qui se font redpilled parce qu'ils ont mit chat gpt sur un piédestal depuis cet octobre car on les spam de topic sur l'ia

c'est juste le début au cas ou hein, chat gpt va devenir de plus en plus puissant https://image.noelshack.com/fichiers/2023/03/4/1674139034-clairechatgpt.gif

Je suis désolé, vous avez raison. Les ânes ne pondent pas d'œufs. C'est une erreur de ma part. Les œufs d'âne n'existent pas. Les ânesses, les femelles de l'espèce des ânes, ne produisent pas d'œufs mais donnent naissance à des ânons, de la même manière que les juments, les vaches ou les brebis. Merci de m'avoir corrigé. https://image.noelshack.com/fichiers/2023/03/4/1674139034-clairechatgpt.gif

En tant que modèle de langage, je suis programmé pour fournir des informations précises et fiables en utilisant des modèles statistiques basés sur de grandes quantités de données textuelles. Cependant, comme je ne suis pas parfait et que je suis entraîné sur des données brutes, il peut arriver que j'interprète incorrectement ou que je fasse une erreur en réponse à une question. Dans ce cas, je m'excuse pour toute confusion que j'ai pu causer et j'espère avoir rectifié mon erreur. https://image.noelshack.com/fichiers/2023/03/4/1674139034-clairechatgpt.gif

En tant que modèle de langage, je suis programmé pour fournir des informations précises et fiables en utilisant des modèles statistiques basés sur de grandes quantités de données textuelles.

c'est exactement ce que l'auteur a expliqué sur l'ia:

On parle "d'algorithme", mais ça n'en est pas un. Il n'y a pas d'organigramme bien pensé avec des if then else. C'est juste de la bouillie de nombres qu'on triture dans la boite dont on sort des mots qui ont l'air de faire sens. Mais cette bouillie de calcul ne contient pas un seul if/then/else.

Il n'y a pas d'intelligence dedans, juste des coefficients, dont le plus fort gagne la partie et t'affiche un truc à l'écran.

Donc il n'y a ni if ni then, ni séquentialité façon organigramme dans un réseau de neurone.

Tout y est continu, lisse et quasi-instantané. Il n'y a que de gros vecteurs de nombres, un peu/beaucoup d'arithmétiques et application de fonction sigmoïde sur cette masse de chiffres et surtout des grosses unités de calcul en nombre flottant massivement parallèle (penser cartes vidéos).

Pas la moindre trace d'un truc interprétable sous forme de diagramme algorithmique dedans, et cela malgré le fait que les média parlent "d'algorithme" à leur propos.

Sinon pour info l'IA ne fait aucune recherche sur le NET. Tout son savoir réside dans la masse de nombre flottant qu'elle a configurée durant son apprentissage (les fameux "paramètres"). Son résultat est en réalité instantané, mais on te l'affiche lettre par lettre pour croire qu'elle réfléchit et élabore une réponse censée, mais c'est du faux. C'est pour te conditionner à croire que ce truc est intelligent. Même l'aspect conversationnel est une escroquerie intellectuelle qui cherche à nous faire passer ses réponses comme provenant d'un truc qui pense.

On a vu dans la presse un prof qui se plaignait que les étudiants utilisait ChatGPT et leur avait quand même donné entre 10 et 11 comme note.

Si l'exercice des étudiants devait générer un texte plein de blabla et de concepts abscons, bref des trucs d'intellos loin du sol. Pas de problème: une IA manipulant les mots abstrait saura faire illusion, mais donne lui à raisonner sur des trucs du monde réel et c'est la catastrophe: Elle ne se pose même pas la question du sens d'un pingouin qui fond...

https://image.noelshack.com/fichiers/2023/08/4/1677166453-selection-001.png

Pareil pour les maths j'essayais de résoudre un problème de remplissage de baignoire avec 2 robinets. Pour elle, avec un raisonnement totalement pété, la baignoire se rempli moins vite avec 2 robinets ouverts qu'avec un seul. Ca ne choquait pas son "sens commun". Et oui elle en est dépourvue...

La techno n'est PAS une base de donnée ni une base de connaissance combiné eà un algorithme déductif. C'est juste un ensemble de poids dans un système de calcul qui permet de prédire le prochain mot en fonction des précédents (le contexte).

Quand on l'interroge sur l'âne et l'oeuf tout seul: le mots suivants sont orientés mammifère et "ne ponds pas d'oeuf". C'est la réponse que tu as obtenue. Il est dans un contexte "wikipedia/encyclopédie", il récite ce qu'il a appris. Et c'est très correct.

Si en revanche, tu lui parle de comparer "oeuf de poule" et "oeuf d'âne" il est dans un contexte qu'il ne connait pas (vu que ca n'existe pas). Au mieux il est en mode comparaison, donc l'un plus grand que l'autre mais il n'en sais pas plus. Or quand une IA générative ne sait pas, elle invente, tel un enfant qui ne sait pas et invente aussi. Elle est conçue pour ca. Elle nous invente donc une histoire à propos de la couleur et de la taille des oeufs d'ânes parce qu'elle ne sait rien dessus. Et là on dit "c'est buggé/limité" alors que non: c'est le fondement même des IA génératives (rappelez vous midjourney et dall-e): inventer ! Tout n'est qu'invention avec elles.

C'est là le problème: c'est de faire passer cette IA pour une encyclopédie qui connait tout sur tout. C'est juste un modèle de langage ultra généraliste capable d'invention. C'est là toute l'arnaque Chat-GPT depuis l'arrivée de Microsoft et de sa volonté de l'utiliser pour remplacer Bing (et niker Google). Du coup, les fails au sujet du futur Bing sont légions et délicieux à lire. On se demande même si Microsoft va finalement réussir à maitriser cette IA qui perds ses nerfs et insulte ses utilisateurs.

Parmi les langages qui est son domaine de compétence, on trouve aussi des langages de programmation. Raconter une histoire qui a du sens ou générer un script python qui fait sens c'est la même chose pour une IA qui a été entrainée pour ca, surtout quand on passe son temps à la questionner afin de générer des scripts hyper simples dont on trouve des milliers de versions dans la nature.

En revanche, rédiger une démonstration mathématique, faire des raisonnements physiques, ben ca elle le fait mal, très mal. Car ces opérations ne supportent pas l'invention dont elle fait preuve. Ce sont des activités incompatibles avec cette techno à mon sens et à d'autres aussi (résumé: même avec un dataset énorme pleine de démonstrations pas à pas de pleins de théorèmes, GPT3 a de très mauvaises performances. Pour moi, ce type de réseau n'est pas "câblé" pour faire des démonstrations mathématiques. Les démonstration mathématiques marchent différemment de la production du langage).

Le 23 février 2023 à 03:07:07 :
Je suis désolé, vous avez raison. Les ânes ne pondent pas d'œufs. C'est une erreur de ma part. Les œufs d'âne n'existent pas. Les ânesses, les femelles de l'espèce des ânes, ne produisent pas d'œufs mais donnent naissance à des ânons, de la même manière que les juments, les vaches ou les brebis. Merci de m'avoir corrigé. https://image.noelshack.com/fichiers/2023/03/4/1674139034-clairechatgpt.gif

En tant que modèle de langage, je suis programmé pour fournir des informations précises et fiables en utilisant des modèles statistiques basés sur de grandes quantités de données textuelles. Cependant, comme je ne suis pas parfait et que je suis entraîné sur des données brutes, il peut arriver que j'interprète incorrectement ou que je fasse une erreur en réponse à une question. Dans ce cas, je m'excuse pour toute confusion que j'ai pu causer et j'espère avoir rectifié mon erreur. https://image.noelshack.com/fichiers/2023/03/4/1674139034-clairechatgpt.gif

Le problème c'est qu'il te MENT, il ne corrige aucune erreur.
Ouvre un autre compte sous une autre adreses email et repose lui la question "comment faire la différence entre un oeuf d'âne et un oeuf de poule" et c'est reparti, il retombe dans le panneau.

Donc il se corrige pour un même utilisateur mais pas pour d'autres.

Ce qu'il veut dire que si un spécialiste du sujet s'aperçoit qu'il ment sur un truc, l'IA va lui dire "ok je me suis trompé" mais il continuera à mentir à d'autres utilisateurs (qui ne sont pas spécialistes et ne pourront pas le corriger).

ChatGPT est un milliard de fois pire que Google, car tu obtiens des informations fausses en fonction de ta question et si tu n'es pas spécialiste du sujet, tu ne peux pas les corriger.

ChatGPT rend donc les gens débiles en leur faisant croire à des choses fausses.

Le 23 février 2023 à 16:34:19 :
On a vu dans la presse un prof qui se plaignait que les étudiants utilisait ChatGPT et leur avait quand même donné entre 10 et 11 comme note.

Si l'exercice des étudiants devait générer un texte plein de blabla et de concepts abscons, bref des trucs d'intellos loin du sol. Pas de problème: une IA manipulant les mots abstrait saura faire illusion, mais donne lui à raisonner sur des trucs du monde réel et c'est la catastrophe: Elle ne se pose même pas la question du sens d'un pingouin qui fond...

https://image.noelshack.com/fichiers/2023/08/4/1677166453-selection-001.png

https://image.noelshack.com/fichiers/2023/08/4/1677176307-screenshot-2023-02-23-19-18-06-593-com-android-chrome.jpg

:)

Données du topic

Auteur
girafeur707
Date de création
22 février 2023 à 21:54:56
Nb. messages archivés
94
Nb. messages JVC
91
En ligne sur JvArchive 258