Alternative ChatGPT ou CHATBOT ? C'est ICI !
Le 20 décembre 2024 à 22:06:01 :
Le 20 décembre 2024 à 22:04:57 :
c'est lequel le meillleur pour des chats genre domination hard en français sans censure ?Gemma 2 uncensored
c'est pas compliqué à utiliser ton truc ? c'est en français ? il y a le vocal ?
l'ia de chez brave est cool aussi
copilot c'est pas terrible
gemini c'est carrement nul
gpt c'est bien mais pas parfait (ils ont craqué avec leurs200$ par mois lol)
...
https://duckduckgo.com/?hps=1&q=chatgpt&ia=chat
différents modèles dispo (gpt-4o, Llama, Mixtral ... )
Le 20 décembre 2024 à 22:06:08 :
Que penses tu de gemini (google) ? Ca tient la comparaison a chatgpt?
Bon je réponds à la place de l'OP, Gemini 2 tient le coup pour ses news fonctionnalités Gemini 1 c'est de la merde il ya une fenetre de context trop basse donc tu peux pas tenir de longue conversation
Le 20 décembre 2024 à 22:07:48 :
Une IA qui ne demande pas un numéro de téléphone ou un mail ça existe ?
Des IA locales, sinon des services LLM intégrer aux navigateurs type Aria (Opera) ou Copilot (Edge) sinon ça si c'est pour des trucs sombres pas le choix de local
Une alternative qu'on voit jamais passé c'est :
'Minmaxing' l'abonnement coûte très cher : il faut faire 10h de sport par semaine et prendre 7 douches froides, avoir un travail rémunéré à hauteur de 2x le smic, être propriétaire , coupe de cheveux et barbes toutes les 2 semaines, 7 paires de fringues sur mesure, une bagnole propre qui en jette un peu (20k).
Et il suffit de sortir pour rencontrer des nanas, rarement mais ça arrive tu tombes sur des expertes sur certains sujets qui t'apprennent des choses extraordinaire en tchatchant avec elles
Je précise que ce post est ironique, il y a pas 200LLM qui tournent sur le net en ce moment
Le 20 décembre 2024 à 22:08:20 :
Le 20 décembre 2024 à 22:06:01 :
Le 20 décembre 2024 à 22:04:57 :
c'est lequel le meillleur pour des chats genre domination hard en français sans censure ?Gemma 2 uncensored
c'est pas compliqué à utiliser ton truc ? c'est en français ? il y a le vocal ?
Absolument pas, c'est multilingue, il ya le vocal mais le mettre en place sera trop compliqué si tu n'y connais rien. Par contre faut un GPU je dirais 12Gb Vram pour que ça soit confortable
Le 20 décembre 2024 à 22:09:52 Digong5 a écrit :
https://duckduckgo.com/?hps=1&q=chatgpt&ia=chatdifférents modèles dispo (gpt-4o, Llama, Mixtral ... )
Intéressant ça, je fav'
Le 20 décembre 2024 à 22:26:03 :
Faut donc une ia locale pour avoir une ia type dungeonAI en français et sombre ? Cela me manque un peu du rp un peu trash (pas forcément sexuel mais où l'univers rigole pas)
Les LLM sont formé pour avoir des règles de modération et la plus part des pays exigent des règles de modération sur les modèles d'IA, donc il faut forcément utiliser une IA locale qui a été sur-entrainé pour ne plus avoir de censure, tu peux aussi utiliser des méthodes de Jailbreak sur des chatgpt ou autre mais ça dure pas longtemps l'IA récupérera "sa morale" au cours de la discussion. Après tu peux utiliser des services pour faire héberger des ia locales sur un serveur, mais tu paieras a la conso
Le 20 décembre 2024 à 22:39:02 :
Le 20 décembre 2024 à 22:26:03 :
Faut donc une ia locale pour avoir une ia type dungeonAI en français et sombre ? Cela me manque un peu du rp un peu trash (pas forcément sexuel mais où l'univers rigole pas)Les LLM sont formé pour avoir des règles de modération et la plus part des pays exigent des règles de modération sur les modèles d'IA, donc il faut forcément utiliser une IA locale qui a été sur-entrainé pour ne plus avoir de censure, tu peux aussi utiliser des méthodes de Jailbreak sur des chatgpt ou autre mais ça dure pas longtemps l'IA récupérera "sa morale" au cours de la discussion. Après tu peux utiliser des services pour faire héberger des ia locales sur un serveur, mais tu paieras a la conso
Merci crayon, je regarderais ça un jour de comment installer une IA locale et l'entrainer convenablement mais je sens que ça ne va pas être de la tarte en partant de 0
Le 20 décembre 2024 à 10:08:20 :
https://civitai.com/pour la génération d'image, gratuit et open source, c'est très puissant
je te laisse voir par toi meme dès ta première connexion sur le site
tu penses que c'est mieux que stable diffusion en passant par google colab?
Le 20 décembre 2024 à 22:48:44 :
Le 20 décembre 2024 à 22:39:02 :
Le 20 décembre 2024 à 22:26:03 :
Faut donc une ia locale pour avoir une ia type dungeonAI en français et sombre ? Cela me manque un peu du rp un peu trash (pas forcément sexuel mais où l'univers rigole pas)Les LLM sont formé pour avoir des règles de modération et la plus part des pays exigent des règles de modération sur les modèles d'IA, donc il faut forcément utiliser une IA locale qui a été sur-entrainé pour ne plus avoir de censure, tu peux aussi utiliser des méthodes de Jailbreak sur des chatgpt ou autre mais ça dure pas longtemps l'IA récupérera "sa morale" au cours de la discussion. Après tu peux utiliser des services pour faire héberger des ia locales sur un serveur, mais tu paieras a la conso
Merci crayon, je regarderais ça un jour de comment installer une IA locale et l'entrainer convenablement mais je sens que ça ne va pas être de la tarte en partant de 0
Si t'es noob et que t'as une bonne config tu installes pinokio, c'est une app qui se veut comme un browser d'IA, tu installe Open Web UI avec et c'est bon, t'auras juste à download un LLM il ya plein de tuto vraiment c'est simple. T'as juste à mettre un lien dans add model et c'est tout
Et pour l'entrainer c'est assez simple en utilisant une plateforme comme Civitai, tu fournis ta base d'image en échange de l'équivalent de 2€ en crédit. Après pour optimiser au mieux il faut des compétences mais la plus part les ont pas et c'est très correcte
Incroyablement sous côté
Si on laisse de côté la génération lente, j'ai des meilleurs résultats avec DeepSeek que n'importe quoi d'autre
Le 20 décembre 2024 à 23:50:28 :
J'allais ouvrir le topic pour dire DeepSeek
Incroyablement sous côté
Si on laisse de côté la génération lente, j'ai des meilleurs résultats avec DeepSeek que n'importe quoi d'autre
C'est un projet Open Source donc ça dépends de ta machine ou du service que tu utilise pour le côté vitesse de génération, c'est un bon modèle mais en local il ya plus performant. Solar Preview est le meilleur en qualité de réponse mais la fenêtre de context est ridicule, sinon t'as les modèles Alibaba qui sont pour la plus part les meilleurs, Qwen 2.5 ou le nouveau QwQ doué de raisonnement (mais il un peu dans une phase de test). Après bien sur tout dépends des taches certains sont meilleurs pour certaines choses
Données du topic
- Auteur
- HymnaLaBete
- Date de création
- 20 décembre 2024 à 09:49:15
- Nb. messages archivés
- 43
- Nb. messages JVC
- 41