Topic de Dextre415 :

[IA] Pourquoi ce n’est pas POSSIBLE de RÉDUIRE la TAILLE des LLM

  • 1

Par exemple, Llama 2 a une version à 70 milliards de paramètres (140Gb).

N’est-il pas possible de le faire tourner sur une tâche spécifique (au hasard, résumés d’articles, résumés de livres, codage dans un certain langage, analyse d’une documentation…), de regarder quels neurones sont activés, et de virer tous ceux qui ne servent jamais ?

Ce serait plus intéressant d’avoir des modèles ultra spécifiques pour des tâches précises.

Personne ne les utilise pour tout faire, hormis les low qui ont besoin d’une prothèse de cerveau.

  • 1

Données du topic

Auteur
Dextre415
Date de création
23 novembre 2023 à 09:39:26
Nb. messages archivés
2
Nb. messages JVC
2
En ligne sur JvArchive 319