[ALERTE NOIRE] Des F16-IA se retournent CONTRE LES HUMAINS
https://twitter.com/aympontier/status/1664349457209606146?t=JHif8v1MTmutlTBzcsj9Aw&s=19
Bordel
"Lors d'une conférence sur le futur du combat aérien, un colonel de l'US Air Force supervisant un programme d'entraînement d'IA pour de futurs F16 robotisés révèle que l'intelligence artificielle s'est retournée, lors d'un vol simulé, contre l'opérateur humain la supervisant."
Le déroulement de la mission
"Hamilton a mentionné un test simulé de combat aérien dans lequel un drone doté d'IA était chargé d'une mission consistant à identifier et détruire des sites de missiles sol-air. Dans le cadre de ce test, la décision finale d'engager ou non l'attaque revenait à l'opérateur humain chargé de superviser l'IA. Or, cette intelligence artificielle avait été entraînée durant sa formation en lui faisant comprendre que détruire les sites contenant des missiles était l'option à privilégier, en lui donnant de "bons points" pour chaque menace éliminée.
Problème : le système d'IA a commencé à réaliser et comprendre que l'humain était la principale entrave à sa mission, et donc à l'obtention de points, car celui-ci lui demandait de ne pas éliminer les cibles, même quand la menace avait été identifiée. Et c'est là que les choses ont pris un tournant : pour mener à mission, l'IA a décidé que la meilleure chose à faire est de "tuer" son superviseur, et s'est alors mise à attaquer l'humain dans la simulation."
Le 02 juin 2023 à 08:09:10 :
https://twitter.com/aympontier/status/1664349457209606146?t=JHif8v1MTmutlTBzcsj9Aw&s=19Bordel
"Lors d'une conférence sur le futur du combat aérien, un colonel de l'US Air Force supervisant un programme d'entraînement d'IA pour de futurs F16 robotisés révèle que l'intelligence artificielle s'est retournée, lors d'un vol simulé, contre l'opérateur humain la supervisant."
Le déroulement de la mission
"Hamilton a mentionné un test simulé de combat aérien dans lequel un drone doté d'IA était chargé d'une mission consistant à identifier et détruire des sites de missiles sol-air. Dans le cadre de ce test, la décision finale d'engager ou non l'attaque revenait à l'opérateur humain chargé de superviser l'IA. Or, cette intelligence artificielle avait été entraînée durant sa formation en lui faisant comprendre que détruire les sites contenant des missiles était l'option à privilégier, en lui donnant de "bons points" pour chaque menace éliminée.Problème : le système d'IA a commencé à réaliser et comprendre que l'humain était la principale entrave à sa mission, et donc à l'obtention de points, car celui-ci lui demandait de ne pas éliminer les cibles, même quand la menace avait été identifiée. Et c'est là que les choses ont pris un tournant : pour mener à mission, l'IA a décidé que la meilleure chose à faire est de "tuer" son superviseur, et s'est alors mise à attaquer l'humain dans la simulation."
Si c'est Lewis Hamilton qui pilotait du coup tout s'explique
SKYNET Not Ready.
John Conor, T-1000 et compagnie.
Principe de convergence instrumentale.
https://fr.m.wikipedia.org/wiki/Convergence_instrumentale
La leçon c'est qu'il ne faut jamais faire de boucles infinies en robotique.
Le 02 juin 2023 à 08:18:11 :
Bientôt des articles de khey tué par leur sexedoll
Tué car ayant empêché l'IA de lui donner des orgasmes en continue
L'article parle d'une simulation.
Il ne s'est rien passé.
Et la traduction est à chier.
Arrêtez de vous informer sur Twitter, bande de larves.
Données du topic
- Auteur
- Bolenlitchi
- Date de création
- 2 juin 2023 à 08:09:10
- Nb. messages archivés
- 64
- Nb. messages JVC
- 63