ALEEERTE : OPENAI SORT UNE IA VIDÉO (RÉALISTE)
Le 15 février 2024 à 22:24:28 :
Le 15 février 2024 à 22:23:46 :
Le 15 février 2024 à 22:21:49 :
Stable diffusion en i.a. c'est comme internet avec un modem 56k.C'est bcp trop lent, ils sont largués. C'est juste pour les ne*d qui ont 0 vie et peuvent passer 3h à essayer d'inventer l'image parfaite, c'est pathétique.
En 5 secondes sur dall-e 3 avec une commande en français bourrées de fautes et sans ponctuation, la première image explose n'importe quelle image que le gars a mis 3h à refaire avec stable diffusion.
Nimp, ca prend 40 secondes sur ~3060ti.
Ca en prend encore moins sur ma 4080.T'as pas compris je crois
Il parle de la qualité des images sorties
Le 15 février 2024 à 22:23:30 :
Le 15 février 2024 à 22:18:36 :
Les golems pensent que l'ia surpuissante va les sauver du travailLes élites utiliseront toujours les humains pour les tâches de merde, ça coute beaucoup moins cher que de MASS produire des milliards de robots intelligents
Euh, non justement, si la révolution industrielle a prouvé quelque chose c'est que l'esclavage est très peu rentable en terme de coûts / bénéfices
Y'a pas assez de ressources naturelles pour produire une armée de robots pour faire toutes nos tâches de merde.
Un humain il baise, c'est gratuit et hop t'as un nouvel ouvrier.
Le 15 février 2024 à 22:20:58 Harryca4 a écrit :
C'est quoi la meilleure config pc pour être à l'aise dans les prochains mois pour L'IA ?
https://www.ldlc.com/fiche/PB00462651.html
Et donc le plus gros proco (et même CM avec double ou triple proco) + 512Go de RAM
En vrai, ça dépend de quelles IA tu parles. LLM ? Images ?...
Et de quelles IA précisément tu parles et veut faire fonctionner en local
Le 15 février 2024 à 22:21:14 :
Le 15 février 2024 à 22:19:41 :
Petite question pour les connaisseurs, serait-il possible de faire en sorte, avec la technologie actuelle, que l'on demande aux "IA" (qui n'ont rien d'intelligentes) de chercher à s'optimiser, s'améliorer, proposer de nouvelles "pistes de recherche", un peu à la manière de Google qui utilise le deep learning pour créer de nouveaux matériaux ?Évidemment que non
Elles n'ont de toute façon pas accès à leur code donc je vois pas ce qu'elles vont optimiserEt l’assomption "qui n'ont rien d'intelligentes" est très réducteur
J'en suis resté à l'analogie du type enfermé dans une pièce avec des dictionnaires de Chinois sans en parler un traître mot : si tu lui file un papier lui demandant de traduire un mot, vu qu'il a accès à ces connaissances, il va y arriver (bon ça lui prendra du temps), mais pour autant il saura pas spécialement mieux parler chinois
En tout cas merci pour vos réponses, c'est rare les topics où on peut échanger dans le calme sur un sujet d'actualité
Le 15 février 2024 à 22:20:58 Harryca4 a écrit :
C'est quoi la meilleure config pc pour être à l'aise dans les prochains mois pour L'IA ?
Un gpu haut de gamme fait l'affaire, prend une carte avec plus de 12GO de mémoire par contre
Le 15 février 2024 à 22:20:58 :
C'est quoi la meilleure config pc pour être à l'aise dans les prochains mois pour L'IA ?
Attendre les CG avec du hardware embarqué dédié a l'IA.
Le 15 février 2024 à 22:25:37 :
Le 15 février 2024 à 22:20:58 Harryca4 a écrit :
C'est quoi la meilleure config pc pour être à l'aise dans les prochains mois pour L'IA ?https://www.ldlc.com/fiche/PB00462651.html
Et donc le plus gros proco (et même CM avec double ou triple proco) + 512Go de RAM
En vrai, ça dépend de quelles IA tu parles. LLM ? Images ?...
Et de quelles IA précisément tu parles et veut faire fonctionner en local
Le 15 février 2024 à 22:25:52 :
Le 15 février 2024 à 22:21:14 :
Le 15 février 2024 à 22:19:41 :
Petite question pour les connaisseurs, serait-il possible de faire en sorte, avec la technologie actuelle, que l'on demande aux "IA" (qui n'ont rien d'intelligentes) de chercher à s'optimiser, s'améliorer, proposer de nouvelles "pistes de recherche", un peu à la manière de Google qui utilise le deep learning pour créer de nouveaux matériaux ?Évidemment que non
Elles n'ont de toute façon pas accès à leur code donc je vois pas ce qu'elles vont optimiserEt l’assomption "qui n'ont rien d'intelligentes" est très réducteur
J'en suis resté à l'analogie du type enfermé dans une pièce avec des dictionnaires de Chinois sans en parler un traître mot : si tu lui file un papier lui demandant de traduire un mot, vu qu'il a accès à ces connaissances, il va y arriver (bon ça lui prendra du temps), mais pour autant il saura pas spécialement mieux parler chinois
Et cela veut-il forcément dire qu'il n'est pas intelligent ?
Le 15 février 2024 à 22:21:49 :
Stable diffusion en i.a. c'est comme internet avec un modem 56k.C'est bcp trop lent, ils sont largués. C'est juste pour les ne*d qui ont 0 vie et peuvent passer 3h à essayer d'inventer l'image parfaite, c'est pathétique.
En 5 secondes sur dall-e 3 avec une commande en français bourrées de fautes et sans ponctuation, la première image explose n'importe quelle image que le gars a mis 3h à refaire avec stable diffusion.
Tu dis de la merde, ça comprend bien le français et ce n'est pas si long à générer... 36 secondes pour "image photo réaliste de bill gates" :
Et j'ai un GPU pourrit à peine compatible (AMD)
Le 15 février 2024 à 22:25:37 :
Le 15 février 2024 à 22:20:58 Harryca4 a écrit :
C'est quoi la meilleure config pc pour être à l'aise dans les prochains mois pour L'IA ?https://www.ldlc.com/fiche/PB00462651.html
Et donc le plus gros proco (et même CM avec double ou triple proco) + 512Go de RAM
En vrai, ça dépend de quelles IA tu parles. LLM ? Images ?...
Et de quelles IA précisément tu parles et veut faire fonctionner en local
En local utiliser SD notamment. Je connais pas LLM
Le 15 février 2024 à 22:26:32 :
Le 15 février 2024 à 22:25:37 :
Le 15 février 2024 à 22:20:58 Harryca4 a écrit :
C'est quoi la meilleure config pc pour être à l'aise dans les prochains mois pour L'IA ?https://www.ldlc.com/fiche/PB00462651.html
Et donc le plus gros proco (et même CM avec double ou triple proco) + 512Go de RAM
En vrai, ça dépend de quelles IA tu parles. LLM ? Images ?...
Et de quelles IA précisément tu parles et veut faire fonctionner en local
H100 AYAAAAAAAAAAA
B100 ou rien l'ahuri
A la limite H200 mais pas moins
J'ai hâte du X100 qui sort l'année prochaine
Le 15 février 2024 à 22:23:53 CarISagan a écrit :
Le 15 février 2024 à 22:22:51 :
Le 15 février 2024 à 22:18:36 CarISagan a écrit :
Les golems pensent que l'ia surpuissante va les sauver du travailLes élites utiliseront toujours les humains pour les tâches de merde, ça coute beaucoup moins cher que de MASS produire des milliards de robots intelligents
J'utilise l'IA au quotidien (ou, plutôt, elle bosse pour moi au quotidien)
Le 15 février 2024 à 22:27:54 :
Le 15 février 2024 à 22:25:37 :
Le 15 février 2024 à 22:20:58 Harryca4 a écrit :
C'est quoi la meilleure config pc pour être à l'aise dans les prochains mois pour L'IA ?https://www.ldlc.com/fiche/PB00462651.html
Et donc le plus gros proco (et même CM avec double ou triple proco) + 512Go de RAM
En vrai, ça dépend de quelles IA tu parles. LLM ? Images ?...
Et de quelles IA précisément tu parles et veut faire fonctionner en localEn local utiliser SD notamment. Je connais pas LLM
Bordel on voit là les connaisseurs
LLM = Large Language Model = GPT par exemple
Le 15 février 2024 à 22:26:24 :
Le 15 février 2024 à 22:20:58 :
C'est quoi la meilleure config pc pour être à l'aise dans les prochains mois pour L'IA ?Attendre les CG avec du hardware embarqué dédié a l'IA.
Dans combien de temps ? La comptabilité sera assuré avec les autres composants si je commande ma config maintenant ?
Le 15 février 2024 à 22:21:14 :
Le 15 février 2024 à 22:19:41 :
Petite question pour les connaisseurs, serait-il possible de faire en sorte, avec la technologie actuelle, que l'on demande aux "IA" (qui n'ont rien d'intelligentes) de chercher à s'optimiser, s'améliorer, proposer de nouvelles "pistes de recherche", un peu à la manière de Google qui utilise le deep learning pour créer de nouveaux matériaux ?Évidemment que non
Elles n'ont de toute façon pas accès à leur code donc je vois pas ce qu'elles vont optimiser
C'est par mesure de sécurité qu'elles n'ont pas accès a leur code ?
(Anecdote sans gran rapport : Quand je parle a GPT 3.5, je lui demande parfois si je devrais passer a GPT 4 il me dit qu'il en sait rien et qu'il ne connait pas la version )
Le 15 février 2024 à 22:29:38 :
Le 15 février 2024 à 22:21:14 :
Le 15 février 2024 à 22:19:41 :
Petite question pour les connaisseurs, serait-il possible de faire en sorte, avec la technologie actuelle, que l'on demande aux "IA" (qui n'ont rien d'intelligentes) de chercher à s'optimiser, s'améliorer, proposer de nouvelles "pistes de recherche", un peu à la manière de Google qui utilise le deep learning pour créer de nouveaux matériaux ?Évidemment que non
Elles n'ont de toute façon pas accès à leur code donc je vois pas ce qu'elles vont optimiserC'est par mesure de sécurité qu'elles n'ont pas accès a leur code ?
(Anecdote sans gran rapport : Quand je parle a GPT 3.5, je lui demande parfois si je devrais passer a GPT 4 il me dit qu'il en sait rien et qu'il ne connait pas la version )
Tu viens de découvrir GPT en 2023 khey ? Tu n'as pas l'air très au fait de comment ça fonctionne
Le 15 février 2024 à 22:26:32 mcts a écrit :
Le 15 février 2024 à 22:25:37 :
Le 15 février 2024 à 22:20:58 Harryca4 a écrit :
C'est quoi la meilleure config pc pour être à l'aise dans les prochains mois pour L'IA ?https://www.ldlc.com/fiche/PB00462651.html
Et donc le plus gros proco (et même CM avec double ou triple proco) + 512Go de RAM
En vrai, ça dépend de quelles IA tu parles. LLM ? Images ?...
Et de quelles IA précisément tu parles et veut faire fonctionner en local
Exact, autant pour moi. Je ne savais plus dans quelle référence de CG Meta allait 'avait ?) investi 9 milliards de $ https://www.lemondeinformatique.fr/actualites/lire-pour-l-ia-meta-va-acquerir-350-000-accelerateurs-nvidia-h100-92722.html
Le 15 février 2024 à 22:29:16 :
Le 15 février 2024 à 22:26:24 :
Le 15 février 2024 à 22:20:58 :
C'est quoi la meilleure config pc pour être à l'aise dans les prochains mois pour L'IA ?Attendre les CG avec du hardware embarqué dédié a l'IA.
Dans combien de temps ? La comptabilité sera assuré avec les autres composants si je commande ma config maintenant ?
On en sait rien, mais Nvidia se met a fond a l'IA.
Ya fort a parier que les premières itérations seront du matos pro et que ca chiffrera en milliers d'euros.
Pour autant, si actuellement tu veux faire de l'IA prend juste une Nvidia a 16GB de ram, pour les tech actuelles ca suffit.
Données du topic
- Auteur
- SexFacile
- Date de création
- 15 février 2024 à 19:15:08
- Nb. messages archivés
- 907
- Nb. messages JVC
- 897