Ma BOITE INTERDIT l'utilisation de CHAT GPT AYAAAAAAAA
Le 11 avril 2024 à 17:51:40 pinacolado117 a écrit :
Le 11 avril 2024 à 17:46:36 ChocolatChooo2 a écrit :
Le 11 avril 2024 à 17:43:10 :
Le 11 avril 2024 à 17:28:55 ChocolatChooo2 a écrit :
Le 11 avril 2024 à 17:22:25 :
Normal de bloquer ChatGPT dans une grosse entreprise, ne serait-ce que pour la protection de donnéesC'est comme refuser github (avec copilot qui est de + en + utilisé d'ailleurs), c'est débile.
Une entreprise se résume pas qu'aux pisseurs de code.
Dans la mienne aussi, on a décidé de bloquer, parce que des PNJ balancaient des tonnes d'infos confidentielles sur GPT4 pour qu'il génère ou modifie des Excels.
J'adore l'IA mais il faut être réaliste, comme on peut pas contrôler les utilisateurs, il est normal de bloquer.N'importe quel DSI sérieuse doit bloquer l'exfiltration de données.
Rien ne m'empêche de copier les données sensible sur ma clé USB et les vendre à des concurrents. Ce qui m'empêche de le faire c'est que si ça s'apprend je serai viré.
Ça doit être pareil ici : les mettre en garde, que si ça fuite, ils doivent en payer les conséquences. Là maintenant, si je veux je peux niquer (au moins partiellement) le business de ma boîte. Mais je ne suis pas con. ChatGPT c'est pareil, les gens doivent juste y être sensibilisés.C'est différent, si tu veux vendre des données bien sur que tu peux.
Sauf que le controleur de gestion qui est assez malin pour utiliser GPT4 mais qui est pas mal intentionné, il veut juste se faciliter la tâche.
Maintenant toute la question est quelle confiance tu donnes a OpenAI. Chez nous c'est 0.
Donc plutot que faire confiance a jean utilisateur (ce qui est toujours une erreur ) tu bloques direct l'acces.
Sinon il y a aussi ChatGPT 3.5 qui permet d'éviter qu'un employé envoie un fichier à OpenAI
Le 11 avril 2024 à 17:53:49 :
Le 11 avril 2024 à 16:24:41 :
Bordel ce matin j'ai essayé de faire une regexp en bash pour isoler un paramètre d'encodage H.264/AVC d'un flux vidéo j'ai galéré alors qu'il y a 3 ans de ça j'étais un expertDéjà on dit « regex » et pas « regexp » …
Et en lisant 30s la doc de ffmpeg t’as la réponse
Le 11 avril 2024 à 17:48:46 QiED23 a écrit :
Le 11 avril 2024 à 17:43:10 :
Le 11 avril 2024 à 17:28:55 ChocolatChooo2 a écrit :
Le 11 avril 2024 à 17:22:25 :
Normal de bloquer ChatGPT dans une grosse entreprise, ne serait-ce que pour la protection de donnéesC'est comme refuser github (avec copilot qui est de + en + utilisé d'ailleurs), c'est débile.
Une entreprise se résume pas qu'aux pisseurs de code.
Dans la mienne aussi, on a décidé de bloquer, parce que des PNJ balancaient des tonnes d'infos confidentielles sur GPT4 pour qu'il génère ou modifie des Excels.
J'adore l'IA mais il faut être réaliste, comme on peut pas contrôler les utilisateurs, il est normal de bloquer.N'importe quel DSI sérieuse doit bloquer l'exfiltration de données.
Spoil incroyable, il le font sur leur téléphone en remote chez eux
La seule façon d'être vraiment efficace reste comme toujours de donner une alternative
Modèle open source en interne et tu vas voir que les gens auront curieusement moins tendance à vouloir faire usage de méthode alternative
Et de toute façon si toute tes datas sont déjà chez microsoft alors inutile, il ont déjà tout, donc chatGPT qui run sur les servers de microsoft ça changera rien si tes employés y mettent de la data
Même réponse qu'au dessus, la sécu 100% ca n'existe pas, mais tu vas pas volontairement ouvrir des tonnes de failles et donner des accès a des trucs tiers si tu estimes que ce n'est pas utile.
C'est encore une fois normal que les IA soient bloquées en entreprise.
Le but c'est pas de m'énumérer toutes les failles, je les connais aussi
edit: par contre oui l'IA en interne et en local c'est évidement l'avenir
Ça m'a donné une bonne idée de business ce topic, pourquoi pas proposer à des entreprises de faire tourner en local leur propre IA qui serait open source (donc triade CIA respectée) et peut être même fine tuné sur leur propre dataset
No fake je pense que j'ai de l'or sous les mains là
Le 11 avril 2024 à 17:56:23 :
Ça m'a donné une bonne idée de business ce topic, pourquoi pas proposer à des entreprises de faire tourner en local leur propre IA qui serait open source (donc triade CIA respectée) et peut être même fine tuné sur leur propre datasetNo fake je pense que j'ai de l'or sous les mains là
Si l'IA était capable de produire du bon code oui.
Mais c'est de la merde donc non.
Le 11 avril 2024 à 17:55:55 :
Le 11 avril 2024 à 17:48:46 QiED23 a écrit :
Le 11 avril 2024 à 17:43:10 :
Le 11 avril 2024 à 17:28:55 ChocolatChooo2 a écrit :
Le 11 avril 2024 à 17:22:25 :
Normal de bloquer ChatGPT dans une grosse entreprise, ne serait-ce que pour la protection de donnéesC'est comme refuser github (avec copilot qui est de + en + utilisé d'ailleurs), c'est débile.
Une entreprise se résume pas qu'aux pisseurs de code.
Dans la mienne aussi, on a décidé de bloquer, parce que des PNJ balancaient des tonnes d'infos confidentielles sur GPT4 pour qu'il génère ou modifie des Excels.
J'adore l'IA mais il faut être réaliste, comme on peut pas contrôler les utilisateurs, il est normal de bloquer.N'importe quel DSI sérieuse doit bloquer l'exfiltration de données.
Spoil incroyable, il le font sur leur téléphone en remote chez eux
La seule façon d'être vraiment efficace reste comme toujours de donner une alternative
Modèle open source en interne et tu vas voir que les gens auront curieusement moins tendance à vouloir faire usage de méthode alternative
Et de toute façon si toute tes datas sont déjà chez microsoft alors inutile, il ont déjà tout, donc chatGPT qui run sur les servers de microsoft ça changera rien si tes employés y mettent de la data
Même réponse qu'au dessus, la sécu 100% ca n'existe pas, mais tu vas pas volontairement ouvrir des tonnes de failles et donner des accès a des trucs tiers si tu estimes que ce n'est pas utile.
C'est encore une fois normal que les IA soient bloquées en entreprise.
Le but c'est pas de m'énumérer toutes les failles, je les connais aussiedit: par contre oui l'IA en interne et en local c'est évidement l'avenir
On est donc 100% d'accord par contre :
par contre oui l'IA en interne et en local c'est évidement l'avenir
Non c'est déjà le présent chez ceux qui ont plus de 50IQ
Le 11 avril 2024 à 17:58:59 :
Le 11 avril 2024 à 17:56:23 :
Ça m'a donné une bonne idée de business ce topic, pourquoi pas proposer à des entreprises de faire tourner en local leur propre IA qui serait open source (donc triade CIA respectée) et peut être même fine tuné sur leur propre datasetNo fake je pense que j'ai de l'or sous les mains là
Si l'IA était capable de produire du bon code oui.
Mais c'est de la merde donc non.
Ça resterait utile pour des ébauches de code et/ou pour gagner du temps tout en s'assurant qu'aucune entreprise propriétaire ait potentiellement accès aux prompts
+ gain de temps pour les autres secteurs de la boite tout le monde utilise l'IA pas que les développeurs hein les marketeux, les RH etc etc
Le 11 avril 2024 à 17:58:59 :
Le 11 avril 2024 à 17:56:23 :
Ça m'a donné une bonne idée de business ce topic, pourquoi pas proposer à des entreprises de faire tourner en local leur propre IA qui serait open source (donc triade CIA respectée) et peut être même fine tuné sur leur propre datasetNo fake je pense que j'ai de l'or sous les mains là
Si l'IA était capable de produire du bon code oui.
Mais c'est de la merde donc non.
C'est excellent pour trouver une erreur dans son code
Le 11 avril 2024 à 17:59:57 :
Le 11 avril 2024 à 17:55:55 :
Le 11 avril 2024 à 17:48:46 QiED23 a écrit :
Le 11 avril 2024 à 17:43:10 :
Le 11 avril 2024 à 17:28:55 ChocolatChooo2 a écrit :
> Le 11 avril 2024 à 17:22:25 :
>Normal de bloquer ChatGPT dans une grosse entreprise, ne serait-ce que pour la protection de données
C'est comme refuser github (avec copilot qui est de + en + utilisé d'ailleurs), c'est débile.
Une entreprise se résume pas qu'aux pisseurs de code.
Dans la mienne aussi, on a décidé de bloquer, parce que des PNJ balancaient des tonnes d'infos confidentielles sur GPT4 pour qu'il génère ou modifie des Excels.
J'adore l'IA mais il faut être réaliste, comme on peut pas contrôler les utilisateurs, il est normal de bloquer.N'importe quel DSI sérieuse doit bloquer l'exfiltration de données.
Spoil incroyable, il le font sur leur téléphone en remote chez eux
La seule façon d'être vraiment efficace reste comme toujours de donner une alternative
Modèle open source en interne et tu vas voir que les gens auront curieusement moins tendance à vouloir faire usage de méthode alternative
Et de toute façon si toute tes datas sont déjà chez microsoft alors inutile, il ont déjà tout, donc chatGPT qui run sur les servers de microsoft ça changera rien si tes employés y mettent de la data
Même réponse qu'au dessus, la sécu 100% ca n'existe pas, mais tu vas pas volontairement ouvrir des tonnes de failles et donner des accès a des trucs tiers si tu estimes que ce n'est pas utile.
C'est encore une fois normal que les IA soient bloquées en entreprise.
Le but c'est pas de m'énumérer toutes les failles, je les connais aussiedit: par contre oui l'IA en interne et en local c'est évidement l'avenir
On est donc 100% d'accord par contre :
par contre oui l'IA en interne et en local c'est évidement l'avenir
Non c'est déjà le présent chez ceux qui ont plus de 50IQ
Tu serais bien étonné khey y a encore énormément de boites qui n'ont pas leur IA en local et qui ont leur employés qui utilisent chatGPT (rien que dans mon cercle de connaissance)
de l'or dans les mains
Le 11 avril 2024 à 17:59:57 QiED23 a écrit :
Le 11 avril 2024 à 17:55:55 :
Le 11 avril 2024 à 17:48:46 QiED23 a écrit :
Le 11 avril 2024 à 17:43:10 :
Le 11 avril 2024 à 17:28:55 ChocolatChooo2 a écrit :
> Le 11 avril 2024 à 17:22:25 :
>Normal de bloquer ChatGPT dans une grosse entreprise, ne serait-ce que pour la protection de données
C'est comme refuser github (avec copilot qui est de + en + utilisé d'ailleurs), c'est débile.
Une entreprise se résume pas qu'aux pisseurs de code.
Dans la mienne aussi, on a décidé de bloquer, parce que des PNJ balancaient des tonnes d'infos confidentielles sur GPT4 pour qu'il génère ou modifie des Excels.
J'adore l'IA mais il faut être réaliste, comme on peut pas contrôler les utilisateurs, il est normal de bloquer.N'importe quel DSI sérieuse doit bloquer l'exfiltration de données.
Spoil incroyable, il le font sur leur téléphone en remote chez eux
La seule façon d'être vraiment efficace reste comme toujours de donner une alternative
Modèle open source en interne et tu vas voir que les gens auront curieusement moins tendance à vouloir faire usage de méthode alternative
Et de toute façon si toute tes datas sont déjà chez microsoft alors inutile, il ont déjà tout, donc chatGPT qui run sur les servers de microsoft ça changera rien si tes employés y mettent de la data
Même réponse qu'au dessus, la sécu 100% ca n'existe pas, mais tu vas pas volontairement ouvrir des tonnes de failles et donner des accès a des trucs tiers si tu estimes que ce n'est pas utile.
C'est encore une fois normal que les IA soient bloquées en entreprise.
Le but c'est pas de m'énumérer toutes les failles, je les connais aussiedit: par contre oui l'IA en interne et en local c'est évidement l'avenir
On est donc 100% d'accord par contre :
par contre oui l'IA en interne et en local c'est évidement l'avenir
Non c'est déjà le présent chez ceux qui ont plus de 50IQ
Jsuis pas assez renseigné sur les couts ou les moyens de mise en oeuvre pour du local, par contre demander a des boomers de payer pour ça bon, c'est pas pour de suite
Le 11 avril 2024 à 17:58:59 :
Le 11 avril 2024 à 17:56:23 :
Ça m'a donné une bonne idée de business ce topic, pourquoi pas proposer à des entreprises de faire tourner en local leur propre IA qui serait open source (donc triade CIA respectée) et peut être même fine tuné sur leur propre datasetNo fake je pense que j'ai de l'or sous les mains là
Si l'IA était capable de produire du bon code oui.
Mais c'est de la merde donc non.
L'IA n'est pas là pour coder à ta place en 2024, elle est là pour te compléter
C'est simple, mes datas m'ont montré que mes équipes ont presque fait X3 en productivité (2.8 pour être précis) avec la première version GPT3.5
En 2024 ne pas avoir de modèle d'IA à la disposition de tes devs c'est simplement stupide
Le 11 avril 2024 à 17:56:23 BlackArch1 a écrit :
Ça m'a donné une bonne idée de business ce topic, pourquoi pas proposer à des entreprises de faire tourner en local leur propre IA qui serait open source (donc triade CIA respectée) et peut être même fine tuné sur leur propre datasetNo fake je pense que j'ai de l'or sous les mains là
les capgemini et sopra steria sont a font dans ca en ce moment
Le 11 avril 2024 à 18:01:47 :
Le 11 avril 2024 à 17:59:57 QiED23 a écrit :
Le 11 avril 2024 à 17:55:55 :
Le 11 avril 2024 à 17:48:46 QiED23 a écrit :
Le 11 avril 2024 à 17:43:10 :
> Le 11 avril 2024 à 17:28:55 ChocolatChooo2 a écrit :
>> Le 11 avril 2024 à 17:22:25 :
> >Normal de bloquer ChatGPT dans une grosse entreprise, ne serait-ce que pour la protection de données
>
> C'est comme refuser github (avec copilot qui est de + en + utilisé d'ailleurs), c'est débile.
Une entreprise se résume pas qu'aux pisseurs de code.
Dans la mienne aussi, on a décidé de bloquer, parce que des PNJ balancaient des tonnes d'infos confidentielles sur GPT4 pour qu'il génère ou modifie des Excels.
J'adore l'IA mais il faut être réaliste, comme on peut pas contrôler les utilisateurs, il est normal de bloquer.N'importe quel DSI sérieuse doit bloquer l'exfiltration de données.
Spoil incroyable, il le font sur leur téléphone en remote chez eux
La seule façon d'être vraiment efficace reste comme toujours de donner une alternative
Modèle open source en interne et tu vas voir que les gens auront curieusement moins tendance à vouloir faire usage de méthode alternative
Et de toute façon si toute tes datas sont déjà chez microsoft alors inutile, il ont déjà tout, donc chatGPT qui run sur les servers de microsoft ça changera rien si tes employés y mettent de la data
Même réponse qu'au dessus, la sécu 100% ca n'existe pas, mais tu vas pas volontairement ouvrir des tonnes de failles et donner des accès a des trucs tiers si tu estimes que ce n'est pas utile.
C'est encore une fois normal que les IA soient bloquées en entreprise.
Le but c'est pas de m'énumérer toutes les failles, je les connais aussiedit: par contre oui l'IA en interne et en local c'est évidement l'avenir
On est donc 100% d'accord par contre :
par contre oui l'IA en interne et en local c'est évidement l'avenir
Non c'est déjà le présent chez ceux qui ont plus de 50IQ
Jsuis pas assez renseigné sur les couts ou les moyens de mise en oeuvre pour du local, par contre demander a des boomers de payer pour ça bon, c'est pas pour de suite
Les boomers oui il sont stupide
Si tu veux un petit setup pour 6/8 personnes pour 3K$ tu peux avoir trois 3090 et ça marche super bien
3K $ ça peut sembler beaucoup mais si comme moi tes devs font presque X3 en un mois, c'est rentable en même pas un mois
Le 11 avril 2024 à 18:03:22 :
Le 11 avril 2024 à 17:58:59 :
Le 11 avril 2024 à 17:56:23 :
Ça m'a donné une bonne idée de business ce topic, pourquoi pas proposer à des entreprises de faire tourner en local leur propre IA qui serait open source (donc triade CIA respectée) et peut être même fine tuné sur leur propre datasetNo fake je pense que j'ai de l'or sous les mains là
Si l'IA était capable de produire du bon code oui.
Mais c'est de la merde donc non.
L'IA n'est pas là pour coder à ta place en 2024, elle est là pour te compléter
C'est simple, mes datas m'ont montré que mes équipes ont presque fait X3 en productivité (2.8 pour être précis) avec la première version GPT3.5
En 2024 ne pas avoir de modèle d'IA à la disposition de tes devs c'est simplement stupide
This
C'est comme ceux qui te sanctionnent car tu vas chercher de l'aide sur stack
Le 11 avril 2024 à 18:06:29 :
Le 11 avril 2024 à 18:03:22 :
Le 11 avril 2024 à 17:58:59 :
Le 11 avril 2024 à 17:56:23 :
Ça m'a donné une bonne idée de business ce topic, pourquoi pas proposer à des entreprises de faire tourner en local leur propre IA qui serait open source (donc triade CIA respectée) et peut être même fine tuné sur leur propre datasetNo fake je pense que j'ai de l'or sous les mains là
Si l'IA était capable de produire du bon code oui.
Mais c'est de la merde donc non.
L'IA n'est pas là pour coder à ta place en 2024, elle est là pour te compléter
C'est simple, mes datas m'ont montré que mes équipes ont presque fait X3 en productivité (2.8 pour être précis) avec la première version GPT3.5
En 2024 ne pas avoir de modèle d'IA à la disposition de tes devs c'est simplement stupide
This
C'est comme ceux qui te sanctionnent car tu vas chercher de l'aide sur stack
Jamais entendu de ma vie
Données du topic
- Auteur
- Revan-Sith
- Date de création
- 11 avril 2024 à 16:22:37
- Nb. messages archivés
- 203
- Nb. messages JVC
- 201