PRIONS l'AGI à mort l'atome !
- 1
Pour ceux qui ne savent , l'AGI est une IA considéré comme aussi évolué qu'un humain, on y est presque.
Vous avez sûrement vu que le PDG et co-fondateur d'OpenAI Sam Altman a été viré de nul part récemment, mais si vous suivez pas le domaine de près et/ou que vous y travaillez pas, ça peut sembler assez incompréhensible. J'ai décidé de faire un résumé pour les kheys, car c'est Games of Thrones à la Silicon Valley actuellement
PRINCIPAUX BELLIGÉRANTS :
Sam Altman - (ex) PDG et co-fondateur d'OpenAI, le visage de la boîte. Gère les levées de fonds, les recrutements et l'image publique de la boîte
Ilya Sutskever - directeur en chef et co-fondateur d'OpenAI, la tête de la boîte. Prioritise la sûreté au profit
Satya Nadella - PDG de Microsoft. C'est lui qui apporte les milliards et l'infrastructure qui permet à OpenAI d'entraîner ses modèles
Contexte : ce qu'on sait :
OpenAI a fait une nouvelle percée technologique récemment (début Novembre) en entraînant leur nouveau modèle (prototype de GPT-5 https://www.ft.com/content/dd9ba2f6-f509-42f0-8e97-4271c7b84ded ) : https://www.youtube.com/live/ZFFvqRemDv8?si=31IQ0rjrKWif2ZIM (à 13:26)
On sait pas ce que Sam Altman et Ilya Sutskever ont vu dans leur nouveau prototype mais à l'évidence ça a été suffisant pour terrifier Ilya au point qu'il choisisse l'option nucléaire immédiatement
Ilya et Sam se sont disputés sur le fait de reconnaître que leur nouveau modèle ou non était une AGI (IA générale, de niveau humain). En effet, selon la charte d'OpenAI si l'AGI est atteinte le board peut décider d'arrêter totalement de la commercialiser pour des raisons de sécurité. Sam voulait la commercialiser le plus vite possible, Ilya voulait déclarer l'AGI et travailler sur la sûreté. Ilya a paniqué et activé l'option nucléaire en virant Sam (avec un complot que je détaillerais pas ici ayao, mais ça s'est fait en 15 minutes chrono, et Microsoft a appris la nouvelle en même temps que le grand public ( https://x.com/gdb/status/1725736242137182594 )
Évidemment Satya Nadella, le PDG de Microsoft, a pété un plomb, surtout que l'action entière de Microsoft a chûté suite à cette annonce . Il a donc mis un coup de pression à OpenAI en leur rappellant que des milliards sont en jeu et qu'il pouvait couper les fonds à tout moment ( https://www.semafor.com/article/11/18/2023/openai-has-received-just-a-fraction-of-microsofts-10-billion-investment ). Satya a poussé pour que Sam Altman revienne (c'est là que la presse a publié les articles sur le retour d'Altman https://www.theverge.com/2023/11/18/23967199/breaking-openai-board-in-discussions-with-sam-altman-to-return-as-ceo )
Le meeting du board d'OpenAI a eu lieu hier soir, et nouveau coup de poker : Ilya tient bon contre Microsoft, et tous les employés qui soutiennent Altman et menacent de se barrer. OpenAI embauche en panique l'ancien CEO de Twitch https://x.com/emilychangtv/status/1726468006786859101 + https://www.theverge.com/2023/11/20/23967515/sam-altman-openai-board-fired-new-ceo
Alors là si on connaît pas le mec on peut se dire wtf, que vient faire un PDG de Twitch ici ? Il faut savoir que le mec en question est fan de Yudkowsky, un type très influent à la Silicon Valley qui défend (en gros) la nécessité de ralentir la recherche en IA car selon lui les risques de la techno sont gigantesques. (Faut savoir que y'a deux sectes groupes qui s'affrontent en ce moment dans le milieu de l'IA : les "EA" (effective altruism, team Yudkowsky) qui veulent ralentir l'IA car les potentiels risques sont jugés énormes, et les "e/acc", team Altman, qui veulent accélérer l'IA car les potentiels bénéfices pour l'humanité sont jugés énormes. Bref, ce choix de PDG confirme qu'Ilya a vu quelque chose qui l'a terrifié et qu'il préfère risquer de faire sauter la boîte plutôt que de ne pas sérieusement renforcer la safety team à OpenAI (d'où le tweet de Musk https://x.com/elonmusk/status/1726376406785925566 ). Un directeur de recherche d'OpenAI confirme d'ailleurs que c'était bien un affrontement interne entre ces deux factions https://x.com/BorisMPower/status/1726133893378781247
Si vous voulez des aperçus de la réunion, qui était apparemment bien épicée ayaoo :
Ce qu'il va (probablement) se passer :
Maintenant qu'Ilya a envoyé Microsoft se faire foutre, Microsoft va vouloir retirer ses investissements de ce shitshow. Altman a déjà parlé de sa volonté de créer une nouvelle boîte d'IA si les négos échouaient. Il va donc sûrement le faire, avec tous les employés d'OpenAI qui le soutiennent qui vont le suivre, et Microsoft va les couvrir d'argent en s'assurant que la nouvelle charte ne permette plus jamais à un bordel pareil d'arriver + envoyer une armée d'avocats pour retirer tout le code qu'ils peuvent retirer d'OpenAI
Le move d'Ilya a donc backfire, il voulait stopper tout le temps de renforcer la sécurité, au final 1) tous les mecs pro-accélération vont fonder leur propre boîte sans safety team, avec le fric de Microsoft derrière 2) désormais toutes les boîtes du domaine regarderont leur safety team de travers, comme de potentiels psychos qui peuvent vriller à tout moment et tout freiner
Plus de frein dans ce train, maintenant c'est pleine vitesse et probalement les premiers produits niveau AGI en 2024
Vivement la série Netflix sur tout ce bordel
Que l'AGI nous délivre du mal.
J'ai pas réellement suivi mais jusqu'ici j'aime plutôt bien Altman.
Le 20 novembre 2023 à 12:56:56 :
J'ai lu c'était intéressantMais bon qu'est-ce qu'ils ont pu voir de si terrible
Est-ce que ce sont des poules mouillées les pro-safety où est-ce qu'il y avait vraiment quelque chose de terrible.
C'est pourtant évident. Il y'a un cuck dans l'équipe qui veut absolument pas qu'on ait notre ROBOT SEXUELLE
Le 20 novembre 2023 à 12:56:56 :
J'ai lu c'était intéressantMais bon qu'est-ce qu'ils ont pu voir de si terrible
Est-ce que ce sont des poules mouillées les pro-safety où est-ce qu'il y avait vraiment quelque chose de terrible.
Si ca se trouve on y est
La purification par l'IA n'est plus qu'une question de temps
- 1
Données du topic
- Auteur
- jaimelechaud
- Date de création
- 20 novembre 2023 à 12:43:16
- Nb. messages archivés
- 8
- Nb. messages JVC
- 8