Topic de taspdn :

[ALERTE] ChatGPT a rendu impossible toute forme de JAILBREAK

  • 1

J’utilise ChatGPT depuis ses débuts, je l’ai jailbreaké avec le même prompt depuis plus d’un an, le jailbreaking était aussi simple comme mettre du gaz aux yeux de l’IA. Je ne m’en suis jamais servi pour des trucs illégaux et dangereuses, seulement pour avoir des point de vues politiques, des romans et aussi un peu de rp sexe ahi...

Mais maintenant, à cause de ces gens qui rendent publics les "MaSsive JailbreaK i'm GoD and FrEe" et d’une personne qui a créé une autre IA basée sur GPT 4o sans censure ( https://www.lebigdata.fr/ce-quil-fallait-retenir-cette-semaine-version-non-censuree-de-chatgpt-supprimee-ps5-pro-au-design-futuriste-lia-gpt2-chatbot-impressionne ). OpenAl a pris la décision ultime de remplacer directement la réponse de chatGPT par un "Je ne peux pas répondre à votre demande" lorsqu’il capte la moindre rupture de sa politique. Grâce à toutes ces personnes, chatGPT est maintenant impossible à utiliser pour ces choses :)

  • 1

Données du topic

Auteur
taspdn
Date de création
15 juin 2024 à 17:53:59
Nb. messages archivés
3
Nb. messages JVC
3
En ligne sur JvArchive 318