[ALERTE] [IA] Un developpeur a fait un programme pour faire un deepfake en 2 clics....
Salut,
Afin de vous protéger je vous invite à vous renseigner sur ROOP un utilitaire extra simple à installer et utliser sur WINDOWS qui permet de faire un deep fake en quelques minutes.
Une vidéo, une photo et le logiciel fait le reste en remplacant la perosnne dans la vidéo avec la personne de la photo. Une vidéo de 10secondes est générées en 10 minutes....
Le thread reddit qui en parle:
https://www.reddit.com/r/StableDiffusion/comments/13v5cww/one_click_deep_fakes_using_roop_tutorial/
Dans la vidéo exemple il a remplacé une cosplayeuse par Jennifer Lawrence...
Il faut vraiment que l'Europe interdise ces logiciels car c'est un vrai DANGER pour nos styles de vie je trouve
Le 30 mai 2023 à 15:47:36 :
C'est parti pour les porno 4K personnalisable, pimp ton porn
J'espère que non. Je crois que logiciel est quand même bridé sur la résolution HEUREUSEMENT.
Le gars sur reddit a fait une vidéo qui montre à quel point c'est FACILE à utiliser. Franchement ça fait TRES PEUR
https://www.youtube.com/watch?v=Py0wxCoJ4xA&
Le 30 mai 2023 à 15:52:05 :
Avec que des photos mais pas de vidéo, ça marche pas j'espère ?
NON que sur des vidéos
Le 30 mai 2023 à 15:52:36 :
Le 30 mai 2023 à 15:52:05 :
Avec que des photos mais pas de vidéo, ça marche pas j'espère ?NON que sur des vidéos
Non mais utiliser des photos pour créer un deep fake vidéo, possible ou pas ?
Le 30 mai 2023 à 15:54:12 :
L'OP qui fait un tuto a la lettre tout en condamnant le logiciel
ok einstein on condamne fermement ce logiciel, on veut jsute s'en protéger
T'y peux rien,c'est le futur.
Vivement les deepfakes pour le corps entier afin de faire revivre les meilleurs pornstars.
Le 30 mai 2023 à 15:54:12 :
L'OP qui fait un tuto a la lettre tout en condamnant le logiciel
si tu veux te protéger faut savoir comment ça marche!!!!!
Le 30 mai 2023 à 15:53:36 :
Le 30 mai 2023 à 15:52:36 :
Le 30 mai 2023 à 15:52:05 :
Avec que des photos mais pas de vidéo, ça marche pas j'espère ?NON que sur des vidéos
Non mais utiliser des photos pour créer un deep fake vidéo, possible ou pas ?
Tu prends une vidéo
tu prends UNE photo
Et ça remplaces la personne de la vidéo en mettant la personne de la photo.
Faut forcément une vidéo + une photo. TU peux pas utiliser juste des photo.
Le 30 mai 2023 à 15:56:14 :
T'y peux rien,c'est le futur.Vivement les deepfakes pour le corps entier afin de faire revivre les meilleurs pornstars.
Ça s'annonce super malsain
Le 30 mai 2023 à 15:58:48 :
VITE, plus d'interdictions de l'UE
l'UE est une vraie bonne chose pour ça.
Grâce à l'UE, OpenIA (ChatGPT) va se retirer du marché européen et ça va sauver ENORMEMENT de job. Twitter va aussi être banni d'europe bientôt, ça évitera pas mal de toxicité.
Franchement si toutes ses horreurs d'IA pouvait être banni d'europe on serait tellement mieux. A l'abri des fakes news et les entreprises pourront pas nous remplacer
Le 30 mai 2023 à 16:00:56 :
Tout tourne en local ? Aucun risque que quelqu'un récupère les vidéos et photos utilisées ?
tout en LOCAL oui, et ça marche sur CPU y'a même pas besoin de carte graphique........... N'importe qui peut le faire tourner ...........
Il faut vraiment que l'Europe interdise ces logiciels car c'est un vrai DANGER pour nos styles de vie je trouve
Un danger pour les célébrités ou ceux qui s'affichent sur internet ... pour quelqu'un qui montre pas sa gueule sur internet (c'est à dire une personne normale et saine d'esprit comme d'avant les années 2000) => RIEN A FOUTRE
Données du topic
- Auteur
- pls_temp_pseudo
- Date de création
- 30 mai 2023 à 15:45:06
- Nb. messages archivés
- 253
- Nb. messages JVC
- 243