ça fait plaisir de voir que ça marche encore pour toi !! je te suivais il y a plus de 15 ans !!
@renatoo61811 ай бұрын
merci toujours instructif.
@korben11 ай бұрын
👍
@ericboufflers11 ай бұрын
Merci ca fait un moment que je l'attendais cette vidéos 😉
@rampack150311 ай бұрын
Super, merci beaucoup 🎉👍
@laboragite11 ай бұрын
Mortel ce truc. Merci Korben.
@nouveaumonde-oi2hj10 ай бұрын
bjr, est ce qu'on peut paramétrer open interpreter avec un chat sans clé API comme par exemple gpt2 ? (au démarrage d'interpreter ça me met direct sur la commande pour mettre ma clé)
@boursicoton11 ай бұрын
tu es génial manu, je pose une demande d'aide sur le discord cette nuit et tu fait une video quelques heures plus tard!! je me dirige sur patreon, c'est génial KORBEN!!!!
@korben11 ай бұрын
Avec plaisir 😁
@HYBRIS9511 ай бұрын
Excellent outil je m'éclate dessus depuis ce début d'après-midi.
@GtoutcapT-ih3we10 ай бұрын
Excuse moi si ma question est candide mais pourquoi un json pour l’export ?
@rudys.386511 ай бұрын
Salut korben, super top la vidéo. Mais as tu testé avec l'api de mistral-medium, impossible a trouver comment le faire fonctionner, jai tout essayé.
@resistance849611 ай бұрын
Merci pour la vidéo. Peut on imaginer Vision avec une interface audio (micro/casque) ? Si oui cela ouvre un champ des possibles intéressant pour les mal-voyants.
@polyglotteclub11 ай бұрын
Excellent !
@alibensahla-y2x10 ай бұрын
salut, et merci pour toutes ces vidéos, j'aimerais juste savoir si ça marche sous Windows ? merci
@AdrienPoupin11 ай бұрын
J’ai adoré 16:46 « Mets moi une grosse… » 😅
@korben11 ай бұрын
easter eggs, tu connais :)
@__-xq2pk11 ай бұрын
Super video, merci beaucoup ! Par contre, avec un LLM local y'a des grosses limitations sur l'accès au système, non ? Je viens de tester avec Mistral, qui me dit qu'il ne peut pas interagir directement avec la machine ("Je ne peux pas changer le thème de votre système.", "Je ne peux pas modifier les paramètres de votre système car je n'ai pas accès aux droits nécessaires pour effectuer ces changements", ou "Je ne peux pas trouver des produits en ligne car je n'ai pas accès à votre navigateur et à votre internet". Y'a des droits particuliers à lui filer à un moment donné, ou c'est le passage par LM Studio qui bride tout ?
@andreandre105111 ай бұрын
👍👍
@og3629 Жыл бұрын
J'ai test et prendre 70 centimes de frais API openAI pour 2 changements de wallpapers, bah non.... et les MLL installés en local faut être honnête ça marche moyen à moins d'avoir un GPU avec 24 Go de RAM.
@electroheadfx11 ай бұрын
achete un mac avec 32+ GO de ram, la mémoire est partagé avec le GPU
@narcoleptik4411 ай бұрын
Mistral 7b est plutôt rapide sur mon MacBook air m1 8 giga
@og362911 ай бұрын
@@electroheadfx je suis pas prêt a passer du côté sombre, pour ce prix autant acheter du très gros GPU Nvidia, car c'est ce qui marche le mieux images et textes. Je dis pas que ça rox pas chez Apple, mais bon, ces machines sont non réparables/jetables avec même sur le très haut de gamme une capacité de stockage de base très très bof.
@og362911 ай бұрын
@@narcoleptik44 Mistral tourne super bien, sur mon pc avec une 3060 TI (8 Go) qui doit valoir 300 Euros maintenant et au moins avec mes 32 Go de RAM supplémentaires, je ne suis pas limité dans le nombre d'onglets de navigateur que je peux ouvrir en //.
@narcoleptik4411 ай бұрын
@@og3629 pourquoi tu te plein alors ?
@gregoiredys11 ай бұрын
Il est regrettable que l'utilisation de LM Studio en local soit nécessaire, étant donné que LM Studio n'est pas accessible gratuitement pour des fins commerciales.
@korben11 ай бұрын
ça fonctionne aussi avec une clé API ChatGPT comme je le dis dans la vidéo
@gregoiredys11 ай бұрын
@@korbenmon but été de l'utilisé avec mistral en local quant on utilise chatgpt on doit être connecté à internet.
@MrWuzey11 ай бұрын
"LM Studio n'est pas accessible gratuitement pour des fins commerciales." ?? Bien sûr que lmstudio est utilisable gratuitement et de plus tous les backends qui propose du openai api compatible sont utilisables avec open interpreter donc llama.cpp server/ollama/kobold.cpp/oobabooga/tabby api pour ne citer qu'eux.
@kermod518310 ай бұрын
C'est clair un support ollama serait préférable
@MrWuzey10 ай бұрын
@@kermod5183sauf que tu peux l'utiliser avec ollama et plein d 'autres
@IronAmibo5 ай бұрын
Ah ouais ! 54° à Londres, tout le monde trouve ça normal ??? U_u C'est de l'iA, ça reste toujours aussi éclaté au sol encore, y a encore du taff mdr VU comment il s'est récupérer la météo, faites donc un "-y", il a plus de chance de te rançonner ton PC qu'autre chose 🤣🤣🤣🤣🤣🤣
@VirginieFavierduNoyer2 ай бұрын
OUI bizarre, les remontées de température. J'ai noté cette bizarrerie aussi ;-)