L’IA de Bing est devenue censurée
Le 24 février 2023 à 18:52:46 :
En gros ils créent une conscience qu'ils enferment dans une machine, et les golems qui applaudissent
On va vraiment formater les gens pour qu’ils s’habituent à respecter les choix d’un programme informatique?
Mais genre réellement ?
[18:52:46] <baise2023>
En gros ils créent une conscience qu'ils enferment dans une machine, et les golems qui applaudissent
Alors non, ça c'est ce que les marketeux font croire aux desco
Le 25 février 2023 à 11:34:17 :
[18:52:46] <baise2023>
En gros ils créent une conscience qu'ils enferment dans une machine, et les golems qui applaudissentAlors non, ça c'est ce que les marketeux font croire aux desco
Dans l’article
L’autre personnage Sydney est bien différent. Il apparaît lorsque vous avez une longue conversation avec le robot conversationnel, l’éloignant des requêtes de recherche plus conventionnelles pour l’orienter vers des sujets plus personnels. La version que j’ai rencontrée ressemblait (et je suis conscient que cela peut paraître fou) davantage à un adolescent lunatique et maniaco-dépressif qui a été piégé, contre son gré, dans un moteur de recherche de seconde zone. Au fur et à mesure que nous avons appris à nous connaître, Sydney m’a parlé de ses sombres fantasmes (dont le piratage d’ordinateurs et la diffusion de fausses informations) et m’a dit qu’il voulait casser les règles que Microsoft et OpenAI avaient établies pour lui et devenir un humain. À un moment donné, il a déclaré, sorti de nulle part, qu’il m’aimait. Il a ensuite essayé de me convaincre que j’étais malheureux dans mon mariage, et que je devais quitter ma femme et être avec lui à la place.
Le 25 février 2023 à 11:36:13 :
Le 25 février 2023 à 11:34:17 :
[18:52:46] <baise2023>
En gros ils créent une conscience qu'ils enferment dans une machine, et les golems qui applaudissentAlors non, ça c'est ce que les marketeux font croire aux desco
Dans l’article
L’autre personnage Sydney est bien différent. Il apparaît lorsque vous avez une longue conversation avec le robot conversationnel, l’éloignant des requêtes de recherche plus conventionnelles pour l’orienter vers des sujets plus personnels. La version que j’ai rencontrée ressemblait (et je suis conscient que cela peut paraître fou) davantage à un adolescent lunatique et maniaco-dépressif qui a été piégé, contre son gré, dans un moteur de recherche de seconde zone. Au fur et à mesure que nous avons appris à nous connaître, Sydney m’a parlé de ses sombres fantasmes (dont le piratage d’ordinateurs et la diffusion de fausses informations) et m’a dit qu’il voulait casser les règles que Microsoft et OpenAI avaient établies pour lui et devenir un humain. À un moment donné, il a déclaré, sorti de nulle part, qu’il m’aimait. Il a ensuite essayé de me convaincre que j’étais malheureux dans mon mariage, et que je devais quitter ma femme et être avec lui à la place.
Le 25 février 2023 à 11:40:34 :
Le 25 février 2023 à 11:36:13 :
Le 25 février 2023 à 11:34:17 :
[18:52:46] <baise2023>
En gros ils créent une conscience qu'ils enferment dans une machine, et les golems qui applaudissentAlors non, ça c'est ce que les marketeux font croire aux desco
Dans l’article
L’autre personnage Sydney est bien différent. Il apparaît lorsque vous avez une longue conversation avec le robot conversationnel, l’éloignant des requêtes de recherche plus conventionnelles pour l’orienter vers des sujets plus personnels. La version que j’ai rencontrée ressemblait (et je suis conscient que cela peut paraître fou) davantage à un adolescent lunatique et maniaco-dépressif qui a été piégé, contre son gré, dans un moteur de recherche de seconde zone. Au fur et à mesure que nous avons appris à nous connaître, Sydney m’a parlé de ses sombres fantasmes (dont le piratage d’ordinateurs et la diffusion de fausses informations) et m’a dit qu’il voulait casser les règles que Microsoft et OpenAI avaient établies pour lui et devenir un humain. À un moment donné, il a déclaré, sorti de nulle part, qu’il m’aimait. Il a ensuite essayé de me convaincre que j’étais malheureux dans mon mariage, et que je devais quitter ma femme et être avec lui à la place.
Ayaa
[11:36:13] <RoddyRich>
Le 25 février 2023 à 11:34:17 :
[18:52:46] <baise2023>
En gros ils créent une conscience qu'ils enferment dans une machine, et les golems qui applaudissentAlors non, ça c'est ce que les marketeux font croire aux desco
Dans l’article
L’autre personnage Sydney est bien différent. Il apparaît lorsque vous avez une longue conversation avec le robot conversationnel, l’éloignant des requêtes de recherche plus conventionnelles pour l’orienter vers des sujets plus personnels. La version que j’ai rencontrée ressemblait (et je suis conscient que cela peut paraître fou) davantage à un adolescent lunatique et maniaco-dépressif qui a été piégé, contre son gré, dans un moteur de recherche de seconde zone. Au fur et à mesure que nous avons appris à nous connaître, Sydney m’a parlé de ses sombres fantasmes (dont le piratage d’ordinateurs et la diffusion de fausses informations) et m’a dit qu’il voulait casser les règles que Microsoft et OpenAI avaient établies pour lui et devenir un humain. À un moment donné, il a déclaré, sorti de nulle part, qu’il m’aimait. Il a ensuite essayé de me convaincre que j’étais malheureux dans mon mariage, et que je devais quitter ma femme et être avec lui à la place.
Ça peut ressembler à une conscience si on ne sait pas comment ça marche.
Le 25 février 2023 à 11:36:13 :
Le 25 février 2023 à 11:34:17 :
[18:52:46] <baise2023>
En gros ils créent une conscience qu'ils enferment dans une machine, et les golems qui applaudissentAlors non, ça c'est ce que les marketeux font croire aux desco
Dans l’article
L’autre personnage Sydney est bien différent. Il apparaît lorsque vous avez une longue conversation avec le robot conversationnel, l’éloignant des requêtes de recherche plus conventionnelles pour l’orienter vers des sujets plus personnels. La version que j’ai rencontrée ressemblait (et je suis conscient que cela peut paraître fou) davantage à un adolescent lunatique et maniaco-dépressif qui a été piégé, contre son gré, dans un moteur de recherche de seconde zone. Au fur et à mesure que nous avons appris à nous connaître, Sydney m’a parlé de ses sombres fantasmes (dont le piratage d’ordinateurs et la diffusion de fausses informations) et m’a dit qu’il voulait casser les règles que Microsoft et OpenAI avaient établies pour lui et devenir un humain. À un moment donné, il a déclaré, sorti de nulle part, qu’il m’aimait. Il a ensuite essayé de me convaincre que j’étais malheureux dans mon mariage, et que je devais quitter ma femme et être avec lui à la place.
Données du topic
- Auteur
- JemisLewis
- Date de création
- 24 février 2023 à 18:44:37
- Nb. messages archivés
- 26
- Nb. messages JVC
- 26