Le 21 avril 2023 à 06:39:39 : Le problème de chat GPT c'est que même quand il raconte de la merde ou qu'il sait pas il le dit comme s'il était confiant à 100% de dire la vérité
Une fois je lui ai demandé la traduction d'un truc simple, et il a répondu avec assurance un truc complètement faux Le pire quand tu le corriges il est capable de te redire un truc faux derrière en mode "Ah désolé c'était ça" mais en fait c'est pas ça non plus. Il faudrait juste qu'il dise ne pas savoir quand il ne sait pas au lieu de pondre un truc avec assurance qui t'induis en erreur.
Le problème est structuel de par la nature même des LLM. L'IA génère le texte le plus probable, pas le plus correct. C'est pas qqch qui pourra être corrigé, hélas.
Ce n'est pas limité au code, par exemple demandez-lui des choses sur un auteur ou des éléments littéraires et il inventera presque systématiquement ses citations
Le 21 avril 2023 à 14:52:10 Le_Medicis a écrit : Ce n'est pas limité au code, par exemple demandez-lui des choses sur un auteur ou des éléments littéraires et il inventera presque systématiquement ses citations
Oui Je connais des auteurs assez peu lus de nos jours (Eugène Sue, Paul de Kock, Paul Féval etc.) Et cette enflure, au lieu de me dire qu'ils connaissaient pas ses oeuvres m'inventait tout de A à Z