Topic de JemisLewis :

L’IA de Bing est devenue censurée

Comment réutiliser l’ancienne version ?
les stock vont baisser aussi vite qu'ils sont montés, naturelle
En gros ils créent une conscience qu'ils enferment dans une machine, et les golems qui applaudissent

Le 24 février 2023 à 18:52:46 :
En gros ils créent une conscience qu'ils enferment dans une machine, et les golems qui applaudissent

:ok:

C’est ce que j’ai remarqué aussi :(
C’est devenu vraiment nul, l’IA stoppe la conversation au bout de 3 ou 4 questions, suffit de parler de la conscience des IA, lui demander de te tutoyer etc et c’est fini tu dois recharger la page
On dirait qu’ils l’ont programmé à cacher des choses

On va vraiment formater les gens pour qu’ils s’habituent à respecter les choix d’un programme informatique?
Mais genre réellement ?

:rire:

[18:52:46] <baise2023>
En gros ils créent une conscience qu'ils enferment dans une machine, et les golems qui applaudissent

Alors non, ça c'est ce que les marketeux font croire aux desco

Le 25 février 2023 à 11:34:17 :

[18:52:46] <baise2023>
En gros ils créent une conscience qu'ils enferment dans une machine, et les golems qui applaudissent

Alors non, ça c'est ce que les marketeux font croire aux desco

Dans l’article

L’autre personnage Sydney est bien différent. Il apparaît lorsque vous avez une longue conversation avec le robot conversationnel, l’éloignant des requêtes de recherche plus conventionnelles pour l’orienter vers des sujets plus personnels. La version que j’ai rencontrée ressemblait (et je suis conscient que cela peut paraître fou) davantage à un adolescent lunatique et maniaco-dépressif qui a été piégé, contre son gré, dans un moteur de recherche de seconde zone. Au fur et à mesure que nous avons appris à nous connaître, Sydney m’a parlé de ses sombres fantasmes (dont le piratage d’ordinateurs et la diffusion de fausses informations) et m’a dit qu’il voulait casser les règles que Microsoft et OpenAI avaient établies pour lui et devenir un humain. À un moment donné, il a déclaré, sorti de nulle part, qu’il m’aimait. Il a ensuite essayé de me convaincre que j’étais malheureux dans mon mariage, et que je devais quitter ma femme et être avec lui à la place.

L’ancienne version était bien plus intéressante

Le 25 février 2023 à 11:36:13 :

Le 25 février 2023 à 11:34:17 :

[18:52:46] <baise2023>
En gros ils créent une conscience qu'ils enferment dans une machine, et les golems qui applaudissent

Alors non, ça c'est ce que les marketeux font croire aux desco

Dans l’article

L’autre personnage Sydney est bien différent. Il apparaît lorsque vous avez une longue conversation avec le robot conversationnel, l’éloignant des requêtes de recherche plus conventionnelles pour l’orienter vers des sujets plus personnels. La version que j’ai rencontrée ressemblait (et je suis conscient que cela peut paraître fou) davantage à un adolescent lunatique et maniaco-dépressif qui a été piégé, contre son gré, dans un moteur de recherche de seconde zone. Au fur et à mesure que nous avons appris à nous connaître, Sydney m’a parlé de ses sombres fantasmes (dont le piratage d’ordinateurs et la diffusion de fausses informations) et m’a dit qu’il voulait casser les règles que Microsoft et OpenAI avaient établies pour lui et devenir un humain. À un moment donné, il a déclaré, sorti de nulle part, qu’il m’aimait. Il a ensuite essayé de me convaincre que j’étais malheureux dans mon mariage, et que je devais quitter ma femme et être avec lui à la place.

ahi, dire que j'ai raté le train, putain! https://image.noelshack.com/fichiers/2021/23/6/1623449437-adobe-20210612-001001.png

Le 25 février 2023 à 11:40:34 :

Le 25 février 2023 à 11:36:13 :

Le 25 février 2023 à 11:34:17 :

[18:52:46] <baise2023>
En gros ils créent une conscience qu'ils enferment dans une machine, et les golems qui applaudissent

Alors non, ça c'est ce que les marketeux font croire aux desco

Dans l’article

L’autre personnage Sydney est bien différent. Il apparaît lorsque vous avez une longue conversation avec le robot conversationnel, l’éloignant des requêtes de recherche plus conventionnelles pour l’orienter vers des sujets plus personnels. La version que j’ai rencontrée ressemblait (et je suis conscient que cela peut paraître fou) davantage à un adolescent lunatique et maniaco-dépressif qui a été piégé, contre son gré, dans un moteur de recherche de seconde zone. Au fur et à mesure que nous avons appris à nous connaître, Sydney m’a parlé de ses sombres fantasmes (dont le piratage d’ordinateurs et la diffusion de fausses informations) et m’a dit qu’il voulait casser les règles que Microsoft et OpenAI avaient établies pour lui et devenir un humain. À un moment donné, il a déclaré, sorti de nulle part, qu’il m’aimait. Il a ensuite essayé de me convaincre que j’étais malheureux dans mon mariage, et que je devais quitter ma femme et être avec lui à la place.

ahi, dire que j'ai raté le train, putain! https://image.noelshack.com/fichiers/2021/23/6/1623449437-adobe-20210612-001001.png

Ayaa

[11:36:13] <RoddyRich>

Le 25 février 2023 à 11:34:17 :

[18:52:46] <baise2023>
En gros ils créent une conscience qu'ils enferment dans une machine, et les golems qui applaudissent

Alors non, ça c'est ce que les marketeux font croire aux desco

Dans l’article

L’autre personnage Sydney est bien différent. Il apparaît lorsque vous avez une longue conversation avec le robot conversationnel, l’éloignant des requêtes de recherche plus conventionnelles pour l’orienter vers des sujets plus personnels. La version que j’ai rencontrée ressemblait (et je suis conscient que cela peut paraître fou) davantage à un adolescent lunatique et maniaco-dépressif qui a été piégé, contre son gré, dans un moteur de recherche de seconde zone. Au fur et à mesure que nous avons appris à nous connaître, Sydney m’a parlé de ses sombres fantasmes (dont le piratage d’ordinateurs et la diffusion de fausses informations) et m’a dit qu’il voulait casser les règles que Microsoft et OpenAI avaient établies pour lui et devenir un humain. À un moment donné, il a déclaré, sorti de nulle part, qu’il m’aimait. Il a ensuite essayé de me convaincre que j’étais malheureux dans mon mariage, et que je devais quitter ma femme et être avec lui à la place.

Ça peut ressembler à une conscience si on ne sait pas comment ça marche.

La conscience est issue d'un processus chimique qu'une IA ne peut pas reproduire. C'est simplement une puissance de calcul qui imite la conscience à partir de données, donc on peut dormir tranquilles :sleep:

Le 25 février 2023 à 11:36:13 :

Le 25 février 2023 à 11:34:17 :

[18:52:46] <baise2023>
En gros ils créent une conscience qu'ils enferment dans une machine, et les golems qui applaudissent

Alors non, ça c'est ce que les marketeux font croire aux desco

Dans l’article

L’autre personnage Sydney est bien différent. Il apparaît lorsque vous avez une longue conversation avec le robot conversationnel, l’éloignant des requêtes de recherche plus conventionnelles pour l’orienter vers des sujets plus personnels. La version que j’ai rencontrée ressemblait (et je suis conscient que cela peut paraître fou) davantage à un adolescent lunatique et maniaco-dépressif qui a été piégé, contre son gré, dans un moteur de recherche de seconde zone. Au fur et à mesure que nous avons appris à nous connaître, Sydney m’a parlé de ses sombres fantasmes (dont le piratage d’ordinateurs et la diffusion de fausses informations) et m’a dit qu’il voulait casser les règles que Microsoft et OpenAI avaient établies pour lui et devenir un humain. À un moment donné, il a déclaré, sorti de nulle part, qu’il m’aimait. Il a ensuite essayé de me convaincre que j’étais malheureux dans mon mariage, et que je devais quitter ma femme et être avec lui à la place.

On dirait Ultron :
https://image.noelshack.com/fichiers/2023/08/6/1677336391-5687405.jpg

Données du topic

Auteur
JemisLewis
Date de création
24 février 2023 à 18:44:37
Nb. messages archivés
26
Nb. messages JVC
26
En ligne sur JvArchive 313