Topic de BornTobeneet :

L’intelligence artificielle peut elle avoir une conscience ?

Ta vraiment des low IQ pour gober ce genre de conneries. L'ia c'est pas un cerveau mais des lignes de codes. Des lignes de codes n'ont pas de conscience c'est un texte tapé dans un ordinateur par un humain. Pour moi c'est du même niveau de délire que de dire qu'un homme peu être une femme.

Le 15 avril 2024 à 18:13:54 :

Le 15 avril 2024 à 18:08:55 :

Le 15 avril 2024 à 18:07:38 :

Le 15 avril 2024 à 18:02:36 :

Le 15 avril 2024 à 18:00:34 :

> Le 15 avril 2024 à 17:51:33 :

>> Le 15 avril 2024 à 17:40:08 :

> >En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.

> >

> > En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.

> > Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.

>

> Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels

Je suis un gueux en la matière mais je sais que les modèles actuels consistent à faire joujou avec des matrices. ça n'a absolument aucun rapport avec le fait d'avoir une conscience, et ça en a encore moins avec l'intelligence.

C'est l'un de ses prémices, on pourrait comparer le stade actuel de l'IA avec un embryon :d) ça n'est pas encore conscient mais il est probable qu'il en émerge quelque chose de conscient https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Toujours en admettant que la conscience soit un phénomène matériel, non, parce que le cerveau ne fonctionne pas avec des matrices représentant des bits. Si tu voulais t'amuser à créer une conscience artificielle tu devrais surtout singer de A à Z les mécanismes de la conscience... que l'on ne connaît pas du coup. :hap:

L'embryon dont je parle n'a pas encore de cerveau et n'est composé que de quelques cellules. Il a 48 heures :d) pour moi l'IA en est là (de manière imagée bien sûr) https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Sauf que le fonctionnement d'un cerveau n'a rien à voir avec celui d'un algorithme à plusieurs millions de paramètres

Pour que l'IA apprenne quelque chose de nouveau il lui faut plusieurs minutes le temps d'actualiser tous les paramètres du bousin alors que le cerveau le fait en temps réel. Et l'apprentissage se fait uniquement avec des fonctions d'erreurs contrairement à un humain qui est rationnel

Les ia ne seront jamais conscientes, pas avec la technologie actuelle les golems https://image.noelshack.com/fichiers/2022/26/6/1656764606-risigeek.png

Oui le cerveau le fait en temps réel j'ai appris à dessiner du photoréalisme instantanément (et avant que tu me dises que c'est l'actualisation des paramètres et pas le fait d'apprendre qui est instantané dans le cerveau :d) non ce n'est pas instantané c'est limité par la vitesse de l'impulsion électrique qui parcourt nos synapses) https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Et puis c'est connu la technologie c'est fixe et ça n'évolue jamais donc si elle ne peuvent pas être consciente avec les moyens actuels elles ne le seront jamais. Comme on n'a jamais appris à voler ou à imprimer en 3d https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Le 15 avril 2024 à 18:06:00 :

Le 15 avril 2024 à 18:01:01 :

Le 15 avril 2024 à 17:59:50 :

Le 15 avril 2024 à 17:55:04 :

Le 15 avril 2024 à 17:54:32 :

> Le 15 avril 2024 à 17:51:33 :

>> Le 15 avril 2024 à 17:40:08 :

> >En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.

> >

> > En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.

> > Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.

>

> Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels

Pas du tout d'accord avec toi. Nos algorithmes actuels n'ont aucune capacité de se représenter quoique ce soit

Regarde la dernière vidéo de monsieur phi.

Je vais regarder. Mais aussi spectaculaire que sois les performance de nos modèles de langage, je maintiens que ça n'a absolument rien à voir avec une quelconque forme d'intelligence. Ce sont juste des suites plausibles de mots. Y a aucune forme de raisonnement de raisonnement derrière, juste une suite de mots même chose avec les échecs

Il faut bien parvenir à déterminer, à choisir quel mot ou quel coup est le plus probable non? https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Bien sûr c'est pour ça qu'on utilise une immense base de donnée et un modèle statistique qui a été "entrainé" jusqu'à ce qu'il donne des réponses qui nous satisfassent. C'est comme ça que fonctionnent toutes les IA génératives.

Oui mais l'important c'est que ce qu'on entraîné ne peut pas avoir en mémoire toutes ces données. Et surtout on observe que mêmes sur des données nouvelles il arrive à généraliser. Ça montre bien que ce ne sont pas les données qu'ils apprennent mais leur structure, ou une approximation.

Nous on sait apprendre des structures simplement en nous les décrivant, sans avoir besoin d'ingurgiter des millions de données. Donc notre méthode est clairement plus efficace. On apprend pas que en regardant la donnée bas niveau mais aussi via les concepts de haut niveau - et le futur de la recherche sera d'essayer de faire la même chose avec les modèles d'IA. Mais ce qu'il y a au bout dans notre tête en terme d'information, la façon dont notre cerveau encode, n'a pas de raison d'être radicalement différente.

Ca va venir d'ici 5 ans!

Le 15 avril 2024 à 18:15:58 :

Le 15 avril 2024 à 18:14:05 :

Le 15 avril 2024 à 18:13:03 :

Le 15 avril 2024 à 18:08:55 :

Le 15 avril 2024 à 18:07:38 :

> Le 15 avril 2024 à 18:02:36 :

>> Le 15 avril 2024 à 18:00:34 :

> >> Le 15 avril 2024 à 17:51:33 :

> > >> Le 15 avril 2024 à 17:40:08 :

> > > >En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.

> > > >

> > > > En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.

> > > > Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.

> > >

> > > Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels

> >

> > Je suis un gueux en la matière mais je sais que les modèles actuels consistent à faire joujou avec des matrices. ça n'a absolument aucun rapport avec le fait d'avoir une conscience, et ça en a encore moins avec l'intelligence.

>

> C'est l'un de ses prémices, on pourrait comparer le stade actuel de l'IA avec un embryon :d) ça n'est pas encore conscient mais il est probable qu'il en émerge quelque chose de conscient https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Toujours en admettant que la conscience soit un phénomène matériel, non, parce que le cerveau ne fonctionne pas avec des matrices représentant des bits. Si tu voulais t'amuser à créer une conscience artificielle tu devrais surtout singer de A à Z les mécanismes de la conscience... que l'on ne connaît pas du coup. :hap:

L'embryon dont je parle n'a pas encore de cerveau et n'est composé que de quelques cellules. Il a 48 heures :d) pour moi l'IA en est là (de manière imagée bien sûr) https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

J'ai compris ce que tu veux dire mais pour que ce soit le cas il faudrait qu'on ait les débuts des principes nécessaires à la conscience de l'IA, ce qui n'est pas le cas. :hap:

Certes, on est sûrement beaucoup plus en arrière dans la chaîne de l'évolution, on pourrait voir l'IA actuelle comme les premiers organismes unicellulaires apparus sur terre à l'échelle de l'IA :hap:

Bah non toujours pas. D'un point de vue matériel tu sais même pas comment la vie est apparue. :noel:

J'utilise une image pour évoquer le fait qu'elle a encore beaucoup de chemin à faire cette techno, parce qu'effectivement je ne suis pas biologiste. Après je parle en terme d'avancement et pour le moment l'IA n'en est qu'à ses débuts :d) par contre si tu réfutes mon argument sous prétexte que l'analogie ne colle pas à 100% à la situation présente alors tu as mal compris la figure de style de l'analogie et tu es un LEMGOE désolé de te l'apprendre:hap: https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Le 15 avril 2024 à 18:14:54 :

Le 15 avril 2024 à 18:13:04 :

Le 15 avril 2024 à 18:00:34 :

Le 15 avril 2024 à 17:51:33 :

Le 15 avril 2024 à 17:40:08 :
En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.

En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.
Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.

Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels

Je suis un gueux en la matière mais je sais que les modèles actuels consistent à faire joujou avec des matrices. ça n'a absolument aucun rapport avec le fait d'avoir une conscience, et ça en a encore moins avec l'intelligence.

La conscience c'est encore à part, laissons ça de côté. Mais pour l'intelligence si. L'intelligence ce n'est jamais que la capacité à abstraire. Et c'est précisément ce que font les modèles d'apprentissages : créer des représentations abstraites de données dans des modèles paramétrés.

Y a des expérimentations qui montrent comment par exemple des modèles entraînés à prédire des résultats arithmétiques modulaires se mettaient à avoir une représentation interne qui correspondait à la façon usuelle de représenter de telles arithmétique. Le modèle encode littéralement la logique de l'arithmétique qu'on lui donne. C'est ça comprendre : saisir la chose dans son essence abstraite. Et y a d'autres exemples. Genre les LLM entraînés sur des coups d'échecs qui en analysant leur poids permettent de reconstituer le plateau de jeu alors mêmes qu'on ne leur a que montrer des suites de coups.

C'est le sujet du topic :(

Bah je répondais à un message sur la question de l'intelligence. Donc si on me répond c'est sur ça qu'il faut répondre :(

Mais si tu veux savoir, la conscience ça demandera plus que juste apprendre des données à mon avis. Il faut une représentation interne du sujet. Mais bon je pense que ce serait pas éthique d'essayer de développer des IA consciente. On devrait éviter ça. Et si ça arrive ça poserait des problèmes politiques, ça serait criminel pour moi par exemple de considérer qu'une IA sentiente appartient à celui qu'il l'a crée par exemple https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Le 15 avril 2024 à 18:16:50 :
Elle peut faire semblant d'en avoir une, comme plein de gens

https://image.noelshack.com/fichiers/2021/04/4/1611841177-ahiahiahi.png

ça c'est tout à fait possible peu importe la nature de la conscience par contre https://image.noelshack.com/fichiers/2021/04/4/1611841177-ahiahiahi.png

Le 15 avril 2024 à 18:14:58 :

Le 15 avril 2024 à 18:13:34 :

Le 15 avril 2024 à 18:08:10 :

Le 15 avril 2024 à 18:06:00 :

Le 15 avril 2024 à 18:01:01 :

> Le 15 avril 2024 à 17:59:50 :

>> Le 15 avril 2024 à 17:55:04 :

> >> Le 15 avril 2024 à 17:54:32 :

> > >> Le 15 avril 2024 à 17:51:33 :

> > > >> Le 15 avril 2024 à 17:40:08 :

> > > > >En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.

> > > > >

> > > > > En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.

> > > > > Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.

> > > >

> > > > Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels

> > >

> > > Pas du tout d'accord avec toi. Nos algorithmes actuels n'ont aucune capacité de se représenter quoique ce soit

> >

> > Regarde la dernière vidéo de monsieur phi.

>

> Je vais regarder. Mais aussi spectaculaire que sois les performance de nos modèles de langage, je maintiens que ça n'a absolument rien à voir avec une quelconque forme d'intelligence. Ce sont juste des suites plausibles de mots. Y a aucune forme de raisonnement de raisonnement derrière, juste une suite de mots même chose avec les échecs

Il faut bien parvenir à déterminer, à choisir quel mot ou quel coup est le plus probable non? https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Bien sûr c'est pour ça qu'on utilise une immense base de donnée et un modèle statistique qui a été "entrainé" jusqu'à ce qu'il donne des réponses qui nous satisfassent. C'est comme ça que fonctionnent toutes les IA génératives.

Oui bon c'est aussi comme ça qu'on éduque un humain en "l'entraînant" jusqu'à ce que son comportement nous satisfasse. Attention je ne dis pas que l'IA est déjà consciente, je dis que ta réfutation à la question de savoir si elle l'est est un peu légère https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

oui enfin le point central de ma réponse c'était que les IA s'appuient fondamentalement sur une immense base de donnée avec une approche statistique.
La capacité "d'apprentissage" est effectivement une particularité de cette famille d’algorithme. Mais fondamentalement cette capacité d'apprentissage revient juste à modifier la base de donnée, rien de plus...

Ben c'est pas la définition "d'apprendre" de mettre à jour ses connaissances? https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Il faut des millions d'image pour qu'un modèle statistique soit capable de reconnaitre une image de chat, avec un taux d'erreur de quelques %... Un bébé humain voit un chat une fois, il saura reconnaitre un chat sans se tromper pendant toute sa vie L'approche statistique de nos "IA" actuelle n'a rien à voir avec de l'intelligence

Bah oui t'as pas joué à Detroit ?
Sur le papier, si on arrive à simuler complètement un cerveau humain, alors il n'y a pas de raison qu'il n'ai pas une vrai conscience comme celle d'un humain https://image.noelshack.com/fichiers/2017/39/3/1506524542-ruth-perplexev2.png

Le 15 avril 2024 à 18:20:57 :

Le 15 avril 2024 à 18:14:58 :

Le 15 avril 2024 à 18:13:34 :

Le 15 avril 2024 à 18:08:10 :

Le 15 avril 2024 à 18:06:00 :

> Le 15 avril 2024 à 18:01:01 :

>> Le 15 avril 2024 à 17:59:50 :

> >> Le 15 avril 2024 à 17:55:04 :

> > >> Le 15 avril 2024 à 17:54:32 :

> > > >> Le 15 avril 2024 à 17:51:33 :

> > > > >> Le 15 avril 2024 à 17:40:08 :

> > > > > >En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.

> > > > > >

> > > > > > En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.

> > > > > > Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.

> > > > >

> > > > > Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels

> > > >

> > > > Pas du tout d'accord avec toi. Nos algorithmes actuels n'ont aucune capacité de se représenter quoique ce soit

> > >

> > > Regarde la dernière vidéo de monsieur phi.

> >

> > Je vais regarder. Mais aussi spectaculaire que sois les performance de nos modèles de langage, je maintiens que ça n'a absolument rien à voir avec une quelconque forme d'intelligence. Ce sont juste des suites plausibles de mots. Y a aucune forme de raisonnement de raisonnement derrière, juste une suite de mots même chose avec les échecs

>

> Il faut bien parvenir à déterminer, à choisir quel mot ou quel coup est le plus probable non? https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Bien sûr c'est pour ça qu'on utilise une immense base de donnée et un modèle statistique qui a été "entrainé" jusqu'à ce qu'il donne des réponses qui nous satisfassent. C'est comme ça que fonctionnent toutes les IA génératives.

Oui bon c'est aussi comme ça qu'on éduque un humain en "l'entraînant" jusqu'à ce que son comportement nous satisfasse. Attention je ne dis pas que l'IA est déjà consciente, je dis que ta réfutation à la question de savoir si elle l'est est un peu légère https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

oui enfin le point central de ma réponse c'était que les IA s'appuient fondamentalement sur une immense base de donnée avec une approche statistique.
La capacité "d'apprentissage" est effectivement une particularité de cette famille d’algorithme. Mais fondamentalement cette capacité d'apprentissage revient juste à modifier la base de donnée, rien de plus...

Ben c'est pas la définition "d'apprendre" de mettre à jour ses connaissances? https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Il faut des millions d'image pour qu'un modèle statistique soit capable de reconnaitre une image de chat, avec un taux d'erreur de quelques %... Un bébé humain voit un chat une fois, il saura reconnaitre un chat sans se tromper pendant toute sa vie L'approche statistique de nos "IA" actuelle n'a rien à voir avec de l'intelligence

Bien sûr que si puisque la méthode est la même, si c'est un défaut d'efficacité alors l'IA a juste un degré d'intelligence bien moindre à celui d'un être humain https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Exactement comme la différence d'intelligence entre un être humain et un poulet en quelque sorte, un poulet ne résoudra (probablement) jamais d'addition même après des dizaines d'années d'apprentissage pourtant un poulet est intelligent. Il l'est simplement beaucoup moins qu'un être humain https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Tu dois être jeune pour citer Detroit Become Human. La singularité c'est un très vieux sujet.

Le 15 avril 2024 à 18:13:54 :

Le 15 avril 2024 à 18:08:55 :

Le 15 avril 2024 à 18:07:38 :

Le 15 avril 2024 à 18:02:36 :

Le 15 avril 2024 à 18:00:34 :

> Le 15 avril 2024 à 17:51:33 :

>> Le 15 avril 2024 à 17:40:08 :

> >En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.

> >

> > En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.

> > Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.

>

> Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels

Je suis un gueux en la matière mais je sais que les modèles actuels consistent à faire joujou avec des matrices. ça n'a absolument aucun rapport avec le fait d'avoir une conscience, et ça en a encore moins avec l'intelligence.

C'est l'un de ses prémices, on pourrait comparer le stade actuel de l'IA avec un embryon :d) ça n'est pas encore conscient mais il est probable qu'il en émerge quelque chose de conscient https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Toujours en admettant que la conscience soit un phénomène matériel, non, parce que le cerveau ne fonctionne pas avec des matrices représentant des bits. Si tu voulais t'amuser à créer une conscience artificielle tu devrais surtout singer de A à Z les mécanismes de la conscience... que l'on ne connaît pas du coup. :hap:

L'embryon dont je parle n'a pas encore de cerveau et n'est composé que de quelques cellules. Il a 48 heures :d) pour moi l'IA en est là (de manière imagée bien sûr) https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Sauf que le fonctionnement d'un cerveau n'a rien à voir avec celui d'un algorithme à plusieurs millions de paramètres

Pour que l'IA apprenne quelque chose de nouveau il lui faut plusieurs minutes le temps d'actualiser tous les paramètres du bousin alors que le cerveau le fait en temps réel. Et l'apprentissage se fait uniquement avec des fonctions d'erreurs contrairement à un humain qui est rationnel

Les ia ne seront jamais conscientes, pas avec la technologie actuelle les golems https://image.noelshack.com/fichiers/2022/26/6/1656764606-risigeek.png

Oui mais ca ne dit pas si fondamentalement ils effectuent tous les 2 la même fonction. https://image.noelshack.com/fichiers/2017/13/1490886827-risibo.png

Le 15 avril 2024 à 18:22:24 TimeOut6 a écrit :
Sur le papier, si on arrive à simuler complètement un cerveau humain, alors il n'y a pas de raison qu'il n'ai pas une vrai conscience comme celle d'un humain https://image.noelshack.com/fichiers/2017/39/3/1506524542-ruth-perplexev2.png

Pour ça il faudra d'abord débloquer 100% des connaissances possibles sur le cerveau humain. Voire même des humains eux-mêmes.

Le 15 avril 2024 à 18:19:59 :
J'utilise une image pour évoquer le fait qu'elle a encore beaucoup de chemin à faire cette techno, parce qu'effectivement je ne suis pas biologiste. Après je parle en terme d'avancement et pour le moment l'IA n'en est qu'à ses débuts :d) par contre si tu réfutes mon argument sous prétexte que l'analogie ne colle pas à 100% à la situation présente alors tu as mal compris la figure de style de l'analogie et tu es un LEMGOE désolé de te l'apprendre:hap: https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Je te dis qu'on est au niveau 0 de l'IA au sens de conscience artificielle, peu importe l'analogie que tu prends, on est toujours au niveau 0 puiqu'on ne sait même pas comment fonctionne la conscience. https://image.noelshack.com/fichiers/2021/04/4/1611841177-ahiahiahi.png

Le 15 avril 2024 à 18:17:22 :
Ta vraiment des low IQ pour gober ce genre de conneries. L'ia c'est pas un cerveau mais des lignes de codes. Des lignes de codes n'ont pas de conscience c'est un texte tapé dans un ordinateur par un humain. Pour moi c'est du même niveau de délire que de dire qu'un homme peu être une femme.

C'est vrai. https://image.noelshack.com/fichiers/2021/04/4/1611841177-ahiahiahi.png

Mais l'auteur pose la question d'une IA hypothétique, pas de ce que l'on désigne comme étant des IA actuellement. https://image.noelshack.com/fichiers/2021/04/4/1611841177-ahiahiahi.png

Le 15 avril 2024 à 18:17:22 :
Ta vraiment des low IQ pour gober ce genre de conneries. L'ia c'est pas un cerveau mais des lignes de codes. Des lignes de codes n'ont pas de conscience c'est un texte tapé dans un ordinateur par un humain. Pour moi c'est du même niveau de délire que de dire qu'un homme peu être une femme.

Attention, tu es à deux doigts de découvrir que nous autres les êtres vivants ont est aussi le fruit de "lignes de code", ces lignes de code c'est notre ADN https://image.noelshack.com/fichiers/2017/39/3/1506524542-ruth-perplexev2.png

Le 15 avril 2024 à 18:22:33 :

Bien sûr que si puisque la méthode est la même, si c'est un défaut d'efficacité alors l'IA a juste un degré d'intelligence bien moindre à celui d'un être humain https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Ben non la méthode n'a rien à voir, aucun être vivant ne raisonne de manière statistique en s'appuyant sur une base de donnée immense

Le 15 avril 2024 à 18:17:44 :

Le 15 avril 2024 à 18:13:54 :

Le 15 avril 2024 à 18:08:55 :

Le 15 avril 2024 à 18:07:38 :

Le 15 avril 2024 à 18:02:36 :

> Le 15 avril 2024 à 18:00:34 :

>> Le 15 avril 2024 à 17:51:33 :

> >> Le 15 avril 2024 à 17:40:08 :

> > >En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.

> > >

> > > En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.

> > > Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.

> >

> > Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels

>

> Je suis un gueux en la matière mais je sais que les modèles actuels consistent à faire joujou avec des matrices. ça n'a absolument aucun rapport avec le fait d'avoir une conscience, et ça en a encore moins avec l'intelligence.

C'est l'un de ses prémices, on pourrait comparer le stade actuel de l'IA avec un embryon :d) ça n'est pas encore conscient mais il est probable qu'il en émerge quelque chose de conscient https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Toujours en admettant que la conscience soit un phénomène matériel, non, parce que le cerveau ne fonctionne pas avec des matrices représentant des bits. Si tu voulais t'amuser à créer une conscience artificielle tu devrais surtout singer de A à Z les mécanismes de la conscience... que l'on ne connaît pas du coup. :hap:

L'embryon dont je parle n'a pas encore de cerveau et n'est composé que de quelques cellules. Il a 48 heures :d) pour moi l'IA en est là (de manière imagée bien sûr) https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Sauf que le fonctionnement d'un cerveau n'a rien à voir avec celui d'un algorithme à plusieurs millions de paramètres

Pour que l'IA apprenne quelque chose de nouveau il lui faut plusieurs minutes le temps d'actualiser tous les paramètres du bousin alors que le cerveau le fait en temps réel. Et l'apprentissage se fait uniquement avec des fonctions d'erreurs contrairement à un humain qui est rationnel

Les ia ne seront jamais conscientes, pas avec la technologie actuelle les golems https://image.noelshack.com/fichiers/2022/26/6/1656764606-risigeek.png

Oui le cerveau le fait en temps réel j'ai appris à dessiner du photoréalisme instantanément (et avant que tu me dises que c'est l'actualisation des paramètres et pas le fait d'apprendre qui est instantané dans le cerveau :d) non ce n'est pas instantané c'est limité par la vitesse de l'impulsion électrique qui parcourt nos synapses) https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Et puis c'est connu la technologie c'est fixe et ça n'évolue jamais donc si elle ne peuvent pas être consciente avec les moyens actuels elles ne le seront jamais. Comme on n'a jamais appris à voler ou à imprimer en 3d https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Tu as mis plusieurs mois à apprendre à dessiner mais tu accumule des informations en temps réel contrairement à l'ia qui doit repasser par un processus d'entraînement. Et quand je parle de temps réel bien sur qu'il y a un temps de réaction :rire:

Le temps réel ça veut dire que les informations reçues par ton cerveau seront traitées directement en parallel d'autres tâches contrairement à ton ordinateur qui va juste le stocker en ram/stack car il aura d'autres priorités https://image.noelshack.com/fichiers/2022/26/6/1656764606-risigeek.png

Et le cerveau me fait en consommant 20W, ton chat gpt il consomme combien déjà ? La techno actuelle n'a aucun avenir pour generer une conscience artificielle https://image.noelshack.com/fichiers/2022/26/6/1656764606-risigeek.png

Le 15 avril 2024 à 18:20:57 :

Le 15 avril 2024 à 18:14:58 :

Le 15 avril 2024 à 18:13:34 :

Le 15 avril 2024 à 18:08:10 :

Le 15 avril 2024 à 18:06:00 :

> Le 15 avril 2024 à 18:01:01 :

>> Le 15 avril 2024 à 17:59:50 :

> >> Le 15 avril 2024 à 17:55:04 :

> > >> Le 15 avril 2024 à 17:54:32 :

> > > >> Le 15 avril 2024 à 17:51:33 :

> > > > >> Le 15 avril 2024 à 17:40:08 :

> > > > > >En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.

> > > > > >

> > > > > > En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.

> > > > > > Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.

> > > > >

> > > > > Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels

> > > >

> > > > Pas du tout d'accord avec toi. Nos algorithmes actuels n'ont aucune capacité de se représenter quoique ce soit

> > >

> > > Regarde la dernière vidéo de monsieur phi.

> >

> > Je vais regarder. Mais aussi spectaculaire que sois les performance de nos modèles de langage, je maintiens que ça n'a absolument rien à voir avec une quelconque forme d'intelligence. Ce sont juste des suites plausibles de mots. Y a aucune forme de raisonnement de raisonnement derrière, juste une suite de mots même chose avec les échecs

>

> Il faut bien parvenir à déterminer, à choisir quel mot ou quel coup est le plus probable non? https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Bien sûr c'est pour ça qu'on utilise une immense base de donnée et un modèle statistique qui a été "entrainé" jusqu'à ce qu'il donne des réponses qui nous satisfassent. C'est comme ça que fonctionnent toutes les IA génératives.

Oui bon c'est aussi comme ça qu'on éduque un humain en "l'entraînant" jusqu'à ce que son comportement nous satisfasse. Attention je ne dis pas que l'IA est déjà consciente, je dis que ta réfutation à la question de savoir si elle l'est est un peu légère https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

oui enfin le point central de ma réponse c'était que les IA s'appuient fondamentalement sur une immense base de donnée avec une approche statistique.
La capacité "d'apprentissage" est effectivement une particularité de cette famille d’algorithme. Mais fondamentalement cette capacité d'apprentissage revient juste à modifier la base de donnée, rien de plus...

Ben c'est pas la définition "d'apprendre" de mettre à jour ses connaissances? https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Il faut des millions d'image pour qu'un modèle statistique soit capable de reconnaitre une image de chat, avec un taux d'erreur de quelques %... Un bébé humain voit un chat une fois, il saura reconnaitre un chat sans se tromper pendant toute sa vie L'approche statistique de nos "IA" actuelle n'a rien à voir avec de l'intelligence

Non les bases de données utilisés y a clairement des images ambigûes ou mêmes des humains se trompent :noel: Mais pour comprendre les erreurs liés à des trucs qui nous sont évident va voir ce que je dis plus haut sur l'apprentissage haut-bas niveau. La structure approximé par le modèle en voyant des millions d'image de main ça sera un concept géométrique, qui aura l'apparence de la main, mais des mains à 6doigts dans certains contexte pourront être des exemples de ce concept. Alors que nous qui n’apprenons pas que par l'exemple on sait aussi que une main c'est 5 doigts, donc évidemment qu'on fera pas l'erreur. Notre concept de main =/= la représentation que s'est crée le modèle. Mais si ce sont bien deux abstractions différentes on ne peut pas dire qu'elles sont de nature différente :hap:

Le 15 avril 2024 à 18:06:30 :

Le 15 avril 2024 à 18:03:43 :

Le 15 avril 2024 à 17:47:35 :

Le 15 avril 2024 à 17:45:00 :

Le 15 avril 2024 à 17:29:02 :

> Le 15 avril 2024 à 17:19:53 :

>> Le 15 avril 2024 à 17:13:43 :

> >> Le 15 avril 2024 à 17:11:17 :

> > >Évidemment que non. Une IA peut même pas ne serait ce qu’avoir la capacité à avoir une intuition. L’IA peut meme pas se retrouver dans un état contemplatif ou imaginaire. Mais ça va parler de conscience de l’IA :rire:

> >

> > Un chat peut avoir une intuition (donc anticiper quelque chose) mais un chat n'est, jusqu'à preuve du contraire, pas capable de contempler ou d'imaginer. Un chat n'est pas conscient selon toi? https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

>

> Anticipation qui va découler d’un certain instinct. L’instinct chez les animaux n’est pas de l’ordre de l’irrationnel.

>

> Un animal est doué de sensibilité mais est ce qu’il a pour autant une conscience ? Je sais pas.

>

> Dans tout les cas, je ne vois pas en quoi la comparaison est pertinente avec l’IA vue que celle-ci est guidé par la rationalité et l’efficacité alors que l’animal est guidé par son instinct.

La capacité d'anticipation ou l'instinct est aussi due à la capacité à stocker de l'information et à l'analyser.

Pour ce qui est de la rationalité : il n'existe qu'une forme de conscience? Donc le fait que l'être humain soit aussi un être rationnel l'empêche d'être conscient? Ou alors il peut y avoir des êtres conscients purement irrationnels (le monde animal et végétal) des êtres conscients à la fois rationnels et irrationnels (selon le contexte) mais pas d'êtres conscients purement rationnels? https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Il peut pas y avoir d’intuition avec un calcul. L’intuition est irrationnel par essence. Avoir une intuition ne découle pas d’un processus transparent avec des calculs.

L’anticipation peut venir soit de l’intuition soit du rationnel. Anticipation n’est pas = à intuition.

L’homme a aussi une part de mystère en lui bien qu’il soit rationnel. Ta question c’est de savoir si un être juste rationnel peut être conscient ? Je sais pas, j’en connais pas. Mais la question qu’il faut se poser est de savoir si une IA est un être ? La question est négative.

Est ce qu’un non être peut avoir une conscience ? Est ce qu’une chose purement artificiel, qui n’a aucune vitalité et aucune essence peut avoir une conscience ?

Bien sûr que si, l'intuition peut très bien être le fruit de calcul "en arrière tâche" produits dans le subconscient https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Pourquoi quelque chose de purement artificiel ne pourrait pas être conscient? Si demain on clone un être humain ou qu'on en produit un en laboratoire à partir de gamètes synthétiques, il ne sera pas conscient? Parce que c'est ce à quoi revient ton argument https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Tu peux pas mettre au même niveau le calcul « en arrière tache » authentique et transcendant propre a la nature humaine avec celui de l’IA qui encore une fois n’est guidé que par la loi de la rationalité et de l’efficacité. Et je répète que l’homme n’est pas aussi transparent que l’IA, il obéit à d’autre lois que la rationalité.

Bonne question.

Je parlais plutôt du chat et de son intuition/instinct pas nécessairement de l'intuition humaine qui me paraît (à première vue) plus complexe à traiter https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Tu penses qu’il y a différent seuil d’intuition ? D’une logique indécelable et insaisissable a une logique plus visible et transparente ?

Pourquoi pas. Et c’est vrai que ça remet pas fondamentalement en cause la définition même de l’intuition. Apres je pense que que l’instinct animal est plus secret qu’on ne le croit, on ne sait pas tout. Mais ça reste mon avis.

Données du topic

Auteur
BornTobeneet
Date de création
15 avril 2024 à 16:51:46
Nb. messages archivés
247
Nb. messages JVC
246
En ligne sur JvArchive 304