Bonjour, merci pour tes vidéos. Il y a une nouvelle MAJ de Pinocchio (3.0) et là Bolt est facilement installable surtout que maintenant il est rattaché à Hugginface, pourriez vous svp faire une vidéo pour expliquer comment tirer le meilleur de Bolt avec les meilleurs models gratuits? Merci encore
@redington385120 күн бұрын
merci pour la vidéo top et la démonstration
@ThePrimeTech22 күн бұрын
Suepr vidéo merci. Tu penses qu'on peut faire des choses similaires avec le dernier Apple mini M4 ? D'avance merci pour ta réponse
@codeconcept22 күн бұрын
Il ne reste plus qu'à attendre le retour de quelqu'un qui a une config équivalente. En tous cas, ce sera (bien) plus rapide que sur ma brouette 😅 (un Mac avec un i7 et pas beaucoup de RAM)
@electroheadfx20 күн бұрын
@@codeconcept peut-être que les puces silicon avec bcp de ram ca le fera. Les derniers Mini M4 sont taillé pour cela normalement.
@themike200921 күн бұрын
Merci beaucoup pour cette mise à jour 🙏
@arnogos617420 күн бұрын
Merci pour la vidéo. Est-il possible d'utiliser l'API Claude / Anthropic en illimité et gratuitement ? Merci
@codeconcept15 күн бұрын
Merci :) Quand on utilise des LLMs d'une entreprise depuis son site, c'est généralement gratuit, et quand on l'utilise via une API, c'est généralement payant.
@elle-est-mythomane16 күн бұрын
est que bolt new en local fonctionne avec une clé openai chatgpt, car je n'ai jamais réussi à le faire fonctionner
@codeconcept15 күн бұрын
Oui, à condition de renommer ".env.example" en ".env.local". J'ai pas essayé personnellement car j'ai installé un LLM en local. A voir ce que d'autres qui ont des abonnements ont fait.
@Blm_6413 күн бұрын
bonjour, j'ai copilot github pour vs, et aussi un abonnement chatgpt mais pas de clé d'api comment faire pour se servir de se repo?
@anthonyfreneat655522 күн бұрын
Utilisant Bolt et Cursor de manière intensive, je croyais pouvoir intégrer de manière fluide à mon workflow. Mais, mon constat est que si on n’est pas un très bon développeur, il est difficile d’être un bon prompt engineer … Pour les cas basiques, comme un blog, c’est accessible à tous. Mais des que l’on code des fonctionnalités avancées, cela peut devenir le chaos. A ceux qui tremblent face à l’IA, il s’agit ( aujourd’hui pour le moins ) juste d’un attracteur d’attention. Si vous n’êtes pas bon pour faire des pull requests, et distinguer les bons des mauvais patterns je vous souhaite bien du courage. Car quand une modification de 100 lignes est proposée, il peut être difficile de distinguer le vrai du faux. Quand on pèse le coût énergétique et le retour sur investissement qui n’est pour l’heure pas garanti, je ne vois pas, de ma modeste condition de grands changements. Si vous tabulez rapidement dans un environnement professionnel, on vous repère très vite …
@codeconcept22 күн бұрын
Je pense que ce sont des outils qu'il faut suivre pour savoir à quoi en attendre. Pour ce qui est de créer rapidement une app standard comme il y en a tant en info de gestion (du CRUD amélioré), ça fait gagner du temps. J'ai généré tout à l'heure une application mobile hybride Ionic avec un backend Node / Express et une authentification JWT : c'est clairement du temps de gagné, qui peut être consacré à des fonctionnalités plus intéressantes faites à la main. Après, en tant que dev, je regarde au moins autant comment ajouter des fonctionnalités de recherche plus efficaces via des DB Vectorielles, ainsi que la possibilité de créer des assistants entrainés sur des données personnelles. Et c'est franchement sympa d'avoir une recherche basée sur le sens plutôt que sur des mots clés. Après, quand arriveront les nouvelles génération d'IA pour le dev - peut-être basées sur la fameuse architecture JEPA (mais peut-être autre chose dont on n'est pas au courant) -, là, elles pourront peut-être s'attaquer à des développement intermédiaires voire avancés. C'est en tous cas l'objectif annoncé (une rupture d'avec les LLMs). Pour les non-devs, ces outils donnent la possibilité de créer des applications impossibles à créer autrement sans savoir programmer. Ce sont des gens du métier qui veulent concrétiser une idée. On n'est pas en compétition. Et pour des applications qui seront destinées à quelques dizaines ou centaines d'utilisateurs, ça peut largement suffire. Et si l'application rencontre son public, il sera temps de la faire réécrire par des devs. Mais il y a tellement d'applications qui ne rencontrent pas le succès espéré.
@anthonyfreneat655521 күн бұрын
@ je vous remercie pour votre réponse, et des points de nuance apportés.
@calou3160010 күн бұрын
super vidéo. J'ai un problème qui s'affiche "the operation is insecure" avec groq et "There was an error processing your request: No details were returned" avec ollama. est-ce que quelqu'un peut m'aider?
@nislab_22 күн бұрын
Salut, tu as quoi comme config je veux dire, quel genre d’i7 et combien de ram dispo ?
@codeconcept22 күн бұрын
Salut, un 3,8 GHz Intel Core i7 8 cœurs, avec une modeste RAM de 8 Go 2667 MHz DDR4 (quels radins chez Apple de ne pas mettre 16 Go d'emblée) et une aussi modeste AMD Radeon Pro 5500 XT 8 Go. Ca me suffit largement pour le dev à la main. Mais pour faire mumuse avec des IA locales ... 🐌 😄
@nislab_22 күн бұрын
@codeconcept merci 🙏, je ne suis pas certain que ta carte soit compatible, mais tu as une version Rocm d’Ollama
@JohnMarcel66621 күн бұрын
Il faut passer à minima à un Mac Mini M4, ça dépote pour du dev, et pour un prix ridicule ! Ses 16 Go de mémoire unifiée sont top pour de l'inférence...
@AhmedIbrahimAbdallah-e4u7 күн бұрын
merci beaucoup
@guicode511215 күн бұрын
Mes deux RX570 sont trop veilles, pas un probleme de performance mais de chipset de calcul, Rocm incompatible... Sinon j'ai bien les lignes de commentées dans constants.ts, mais il me demande toujours le Claude ! Merci beaucoup pour ton partage.
@guicode511215 күн бұрын
C'est bon ça marche, dommage qu'il ne puisse pas exploiter mes RX mais ça marche bien tout de même.
@codeconcept15 күн бұрын
Et niveau vitesse de génération de tokens, ça donne quoi chez toi ? J'espère que c'est plus rapide que chez moi : j'ai quasiment le temps de manger un casse-croûte puis de faire une sieste avant d'avoir le résultat final d'un prompt 😄
@guicode511215 күн бұрын
@@codeconcept A partir du lancement du prompt: "Create a todo list with vuejs", jusqu'au résultat final j'ai 7 minutes. J'hésite à upgrade mon setup avec 2 msi ventus 2x rtx4070ti super 16gb gddr6x, qu'en penses-tu ?
@guicode511214 күн бұрын
5 minutes avec mon macbook M1
@TheRemiRODRIGUES20 күн бұрын
Sinon il n'y a pas de VPS avec des GPU ? J'ai cru comprendre que ce qu'il fallait c'est de la VRAM. Une RTX 4090 n'a que 24 Go de VRAM, là où une A100 a 40 à 80 Go de VRAM. Et même 141 Go de VRAM pour les H200. À priori pour faire tourner correctement des modèles de 7B (comme Mistral 7B), il faut environ 8 Go de VRAM. Donc normalement ça devrait bien tourner avec ta AMD Radeon Pro 5500 XT. Après les modèles d'IA sont souvent optimisés pour CUDA, qui est exclusif aux GPU Nvidia. AMD propose ROCm (Radeon Open Compute), mais son support est beaucoup moins répandu et pas toujours stable. Sinon tu peux tester avec Phi 3 (3B) ou Gemma 2 (2B). Ce sont de très petit modèle qui performent bien. Ils nécessiteront moins de VRAM, et seront plus rapide, après j'imagine qu'il ne faudra pas s'attendre à des performance de fous, mais ça peut valider le concept et l'idée d'investir dans une carte graphique Nvidia ou d'utiliser un VPS avec des GPU plus puissants.
@codeconcept15 күн бұрын
Oui, il y a le choix au niveau des VPS GPU. Je vais tester Phi3 :)
@bleq95821 күн бұрын
Sur Razer avec rtx4070 ça tourne correctement
@codeconcept15 күн бұрын
Merci pour ce retour d'expérience 😀
@Talaria.School22 күн бұрын
❤
@mayoniaise516917 күн бұрын
Mon extension chrome tourne mieux que Bolt
@mayoniaise516917 күн бұрын
Et ça prend 5 minutes a installer si on a déjà ollama