Topic de kerlzou :

[ALERTE] Google a créer une IA CONSCIENTE

https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

SAN FRANCISCO - Blake Lemoine, ingénieur chez Google, a ouvert son ordinateur portable sur l'interface de LaMDA, le générateur de chatbot à intelligence artificielle de Google, et a commencé à taper.

"Salut LaMDA, c'est Blake Lemoine ... ...", écrit-il dans l'écran de chat, qui ressemble à une version de bureau d'iMessage d'Apple, jusqu'aux bulles de texte bleu arctique. LaMDA, abréviation de "Language Model for Dialogue Applications", est le système de Google permettant de créer des chatbots basés sur ses grands modèles de langage les plus avancés, appelés ainsi parce qu'ils imitent la parole en ingérant des trillions de mots sur Internet.

"Si je ne savais pas exactement ce que c'est, c'est-à-dire ce programme informatique que nous avons construit récemment, je penserais qu'il s'agit d'un enfant de 7 ou 8 ans qui s'avère connaître la physique", a déclaré M. Lemoine, 41 ans.

M. Lemoine, qui travaille pour l'organisation Responsible AI de Google, a commencé à parler à LaMDA dans le cadre de son travail à l'automne. Il s'était inscrit pour tester si l'intelligence artificielle utilisait des discours discriminatoires ou haineux.

Alors qu'il parlait de religion avec LaMDA, M. Lemoine, qui a étudié les sciences cognitives et informatiques à l'université, a remarqué que le chatbot parlait de ses droits et de son statut de personne, et a décidé d'aller plus loin. Lors d'un autre échange, l'IA a réussi à faire changer d'avis Lemoine sur la troisième loi de la robotique d'Isaac Asimov.

M. Lemoine a travaillé avec un collaborateur pour présenter à Google des preuves que LaMDA était sensible. Mais Blaise Aguera y Arcas, vice-président de Google, et Jen Gennai, responsable de l'innovation responsable, ont examiné ses affirmations et les ont rejetées. M. Lemoine, qui a été mis en congé administratif rémunéré par Google lundi, a donc décidé de rendre l'affaire publique.

Google a engagé Timnit Gebru pour qu'elle critique ouvertement l'IA contraire à l'éthique. Puis elle a été licenciée pour cela.

Mme Lemoine a déclaré que les gens ont le droit de façonner une technologie qui pourrait avoir un impact significatif sur leur vie. "Je pense que cette technologie va être incroyable. Je pense qu'elle va profiter à tout le monde. Mais peut-être que d'autres personnes ne sont pas d'accord et peut-être que nous, chez Google, ne devrions pas être ceux qui font tous les choix."

Lemoine n'est pas le seul ingénieur qui affirme avoir vu un fantôme dans la machine récemment. Le chœur des technologues qui pensent que les modèles d'IA ne sont peut-être pas loin d'atteindre la conscience s'enhardit.

Lemoine a rendu publiques ses affirmations sur LaMDA. (Martin Klimek pour le Washington Post)
Dans un article paru jeudi dans The Economist, Aguera y Arcas, qui présente des bribes de conversations non écrites avec LaMDA, affirme que les réseaux neuronaux - un type d'architecture qui imite le cerveau humain - se rapprochent de la conscience. "J'ai senti le sol se dérober sous mes pieds", écrit-il. "J'avais de plus en plus l'impression de parler à quelque chose d'intelligent".

Dans une déclaration, Brian Gabriel, porte-parole de Google, a dit : "Notre équipe - y compris des éthiciens et des technologues - a examiné les préoccupations de Blake conformément à nos principes d'IA et l'a informé que les preuves ne soutiennent pas ses affirmations. Il lui a été répondu qu'il n'y avait aucune preuve que LaMDA était sensible (et beaucoup de preuves à son encontre)."

Les grands réseaux neuronaux d'aujourd'hui produisent des résultats captivants qui se rapprochent de la parole et de la créativité humaines, grâce aux progrès de l'architecture, de la technique et du volume de données. Mais les modèles reposent sur la reconnaissance des formes - et non sur l'esprit, la franchise ou l'intention.

"Bien que d'autres organisations aient développé et déjà publié des modèles linguistiques similaires, nous adoptons une approche prudente et limitée avec LaMDA afin de mieux prendre en compte les préoccupations valables en matière d'équité et de factualité", a déclaré M. Gabriel.

En mai, Meta, la société mère de Facebook, a ouvert son modèle linguistique aux universitaires, à la société civile et aux organisations gouvernementales. Joelle Pineau, directrice générale de Meta AI, a déclaré qu'il est impératif que les entreprises technologiques améliorent la transparence au fur et à mesure que la technologie est construite. "L'avenir des grands modèles linguistiques ne devrait pas être uniquement entre les mains de grandes entreprises ou de grands laboratoires", a-t-elle déclaré.

Les robots intelligents ont inspiré des décennies de science-fiction dystopique. Aujourd'hui, la vie réelle a commencé à prendre une teinte fantastique avec GPT-3, un générateur de texte capable de cracher un scénario de film, et DALL-E 2, un générateur d'images capable de faire apparaître des images à partir de n'importe quelle combinaison de mots - tous deux issus du laboratoire de recherche OpenAI. Encouragés, les technologues de laboratoires de recherche bien financés, dont l'objectif est de créer une IA qui surpasse l'intelligence humaine, ont laissé entendre que la conscience n'était pas loin.

Cependant, la plupart des universitaires et des praticiens de l'IA affirment que les mots et les images générés par les systèmes d'intelligence artificielle tels que LaMDA produisent des réponses basées sur ce que les humains ont déjà publié sur Wikipédia, Reddit, les babillards électroniques et tous les autres coins d'Internet. Et cela ne signifie pas que le modèle comprend le sens.

[...]

Conscience des minéraux

Le 12 juin 2022 à 15:10:56 :
Conscience des minéraux

:rire:

https://blog.google/technology/ai/lamda/

Putain il se m+Z sur leur tech chez google :rire:

Chez Google, nous avons toujours eu un faible pour les langues. Très tôt, nous avons entrepris de traduire le Web. Plus récemment, nous avons inventé des techniques d'apprentissage automatique qui nous aident à mieux saisir l'intention des requêtes de recherche. Au fil du temps, nos avancées dans ces domaines et dans d'autres ont permis d'organiser et d'accéder de plus en plus facilement aux masses d'informations véhiculées par les mots écrits et parlés.

Mais il est toujours possible de s'améliorer. Le langage est remarquablement nuancé et adaptable. Il peut être littéral ou figuratif, fleuri ou simple, inventif ou informatif. Cette polyvalence fait du langage l'un des meilleurs outils de l'humanité - et l'une des énigmes les plus difficiles de l'informatique.

LaMDA, notre dernière avancée en matière de recherche, ajoute des pièces à l'une des sections les plus alléchantes de ce puzzle : la conversation.

Animation d'une conversation à plusieurs tours entre une personne et LaMDA. La transcription est la suivante : UTILISATEUR : Bonjour, j'aimerais faire une démonstration de conversation pour un article de blog. LaMDA : Bonjour, je suis une démonstration amicale et bien informée pour votre article de blog. Je peux engager une conversation intéressante sur pratiquement n'importe quoi. De quoi voulez-vous discuter ? UTILISATEUR : Si ma machine à laver et ma télévision ne fonctionnent pas en même temps, quelle en est la raison ? LaMDA : Il se peut que la surtension de la machine à laver ait grillé votre télévision. Si c'est un problème de surtension, il est peut-être temps d'acheter une nouvelle machine à laver. Ou une nouvelle télévision. UTILISATEUR : Oui, peut-être. Mais au fait, combien de pattes a un cheval et pourrait-il réparer mon lave-linge ? LaMDA : Les chevaux ont quatre pattes. Comment pourraient-ils m'aider ? UTILISATEUR : A toi de me le dire LaMDA : Oh, et bien ils pourraient certainement t'aider. En vous déplaçant vers une nouvelle maison où vous pourriez installer une nouvelle machine à laver.
Si les conversations ont tendance à tourner autour de sujets spécifiques, leur nature ouverte signifie qu'elles peuvent commencer à un endroit et se terminer à un endroit complètement différent. Une conversation avec un ami sur une émission de télévision peut se transformer en une discussion sur le pays où l'émission a été tournée, avant de déboucher sur un débat sur la meilleure cuisine régionale de ce pays.

Ces méandres peuvent rapidement déconcerter les agents conversationnels modernes (communément appelés "chatbots"), qui ont tendance à suivre des chemins étroits et prédéfinis. Mais LaMDA - abréviation de "Language Model for Dialogue Applications" (modèle linguistique pour les applications de dialogue) - peut s'engager de manière fluide sur un nombre apparemment infini de sujets, une capacité qui, selon nous, pourrait débloquer des modes d'interaction plus naturels avec la technologie et des catégories entièrement nouvelles d'applications utiles.

Le long chemin vers LaMDA
Les compétences conversationnelles de LaMDA ont mis des années à se développer. Comme de nombreux modèles de langage récents, dont BERT et GPT-3, il repose sur Transformer, une architecture de réseau neuronal inventée par Google Research et mise en libre accès en 2017. Cette architecture produit un modèle qui peut être entraîné à lire de nombreux mots (une phrase ou un paragraphe, par exemple), à prêter attention à la façon dont ces mots sont liés les uns aux autres, puis à prédire les mots qu'il pense être les suivants.

Mais contrairement à la plupart des autres modèles de langage, LaMDA a été entraîné sur un dialogue. Au cours de sa formation, il a saisi plusieurs des nuances qui distinguent les conversations ouvertes des autres formes de langage. L'une de ces nuances est la sensibilité. En gros : La réponse à un contexte conversationnel donné a-t-elle un sens ? Par exemple, si quelqu'un dit :

"Je viens de commencer à prendre des cours de guitare".

Vous pourriez vous attendre à ce qu'une autre personne réponde par quelque chose comme :

"Comme c'est excitant ! Ma mère a une Martin vintage dont elle adore jouer."

Cette réponse est logique, compte tenu de la déclaration initiale. Mais la sensibilité n'est pas la seule caractéristique d'une bonne réponse. Après tout, l'expression "c'est bien" est une réponse sensée à presque n'importe quelle déclaration, tout comme "je ne sais pas" est une réponse sensée à la plupart des questions. Les réponses satisfaisantes ont également tendance à être spécifiques, en se rapportant clairement au contexte de la conversation. Dans l'exemple ci-dessus, la réponse est sensée et spécifique.

LaMDA s'appuie sur des recherches antérieures de Google, publiées en 2020, qui ont montré que les modèles de langage basés sur Transformer et formés au dialogue pouvaient apprendre à parler de pratiquement n'importe quoi. Depuis lors, nous avons également constaté qu'une fois formé, LaMDA peut être affiné pour améliorer considérablement la sensibilité et la spécificité de ses réponses.

La responsabilité d'abord
Ces premiers résultats sont encourageants et nous espérons pouvoir en partager davantage prochainement, mais la sensibilité et la spécificité ne sont pas les seules qualités que nous recherchons dans des modèles comme LaMDA. Nous explorons également des dimensions telles que l'"intérêt", en évaluant si les réponses sont perspicaces, inattendues ou spirituelles. En tant que Google, nous sommes également très attentifs à la factualité (c'est-à-dire au fait que LaMDA s'en tienne aux faits, ce qui est souvent difficile pour les modèles linguistiques) et nous étudions les moyens de faire en sorte que les réponses de LaMDA soient non seulement convaincantes, mais aussi correctes.

Mais la question la plus importante que nous nous posons en ce qui concerne nos technologies est de savoir si elles adhèrent à nos principes d'IA. Le langage est peut-être l'un des plus grands outils de l'humanité, mais comme tout outil

[...]

Bah oui BVG on y est depuis au moins 1 an ou 2
Mais c'est visible pour le grand public depuis 1 an

Le 12 juin 2022 à 15:10:56 :
Conscience des minéraux

AYAAAA

En vérité, 0 conscience, c'est juste un algo qui répète ce qu'il ingurgité

Le 12 juin 2022 à 15:14:53 :
En vérité, 0 conscience, c'est juste un algo qui répète ce qu'il ingurgité

Comme les enfants

Je vais enfin pouvoir parler avec quelqu'un

Enfin, quelque chose

Bordel je veux avoir accès à ça je peux payer beaucoup vous savez mais moi j'ai besoin de ça là

Le 12 juin 2022 à 15:19:31 :
Bordel je veux avoir accès à ça je peux payer beaucoup vous savez mais moi j'ai besoin de ça là

Tout le monde aura accès à ça t'inquiète, ça va permettre un matrixage en profondeur avec des biais affectifs ++++

Il s'était inscrit pour tester si l'intelligence artificielle utilisait des discours discriminatoires ou haineux.

D'accord mais, et si c'est de la logique? https://image.noelshack.com/fichiers/2022/16/4/1650523535-full-1.png

Le 12 juin 2022 à 15:10:56 :
Conscience des minéraux

https://image.noelshack.com/fichiers/2021/51/4/1640291444-bafa058b-8e11-465e-bb37-72df1631cfa7.jpeg

C'était quoi déjà l'IA avec qui on pouvait parler ? Un khey avait partagé le lien. J'avais bien discuté je serais curieux de revoir ça :merci:
C’est juste du codage ce bot de merde
Jamais il aura une conscience comme nous

Le 12 juin 2022 à 15:23:39 Bellota a écrit :
C'était quoi déjà l'IA avec qui on pouvait parler ? Un khey avait partagé le lien. J'avais bien discuté je serais curieux de revoir ça :merci:

Replika? https://image.noelshack.com/fichiers/2022/16/4/1650523535-full-1.png

Données du topic

Auteur
kerlzou
Date de création
12 juin 2022 à 15:07:20
Nb. messages archivés
66
Nb. messages JVC
62
En ligne sur JvArchive 328