Open WebUI - Une interface graphique pour Ollama

  Рет қаралды 14,914

Korben

Korben

Күн бұрын

Пікірлер: 31
@hervedurand3224
@hervedurand3224 3 ай бұрын
Hello, juste un détail...oui tu nous montres l'installation, la validation d’installation via la page web en localhost et tu poursuis par le terminal . Et oui y a déjà des vidéos sur l'installation d'ollama, mais tu aurais pu préciser qu'un "Ollama Serve" est de rigueur afin de lancer le serveur web écoutant le port qui va bien :)
@RedandGoldUntilamDeadandCold
@RedandGoldUntilamDeadandCold 2 ай бұрын
pff. C'est tellement impressionnant ce qui arrive dans nos ordis. Malheureusement, j'ai pas le level pour faire toutes ces maneuvres. Merci pour ce travail, qui montre tout ce qui est possible de faire quand on sait se servir vraiment d'un ordi. Je suivrai l'evolution, comme on regarde un spectacle.
@XavierPennacchio
@XavierPennacchio 3 ай бұрын
On s'imagine pas encore la portée de cela d'avoir ca sur ca machine. Toutes les docs qu'on va pouvoir lui faire bouffer et gratis. Merci Korben.
@OlivierCecillon
@OlivierCecillon 3 ай бұрын
Concernant ce qui ressemble à un conflit avec la mémoire, il est dit dans les indications qu'il faut faire référence à soi-même en tant que USER, pas "je". Donc "je suis Manu" il le prend pour lui. Il aurait fallu écrire "l'utilisateur s'appelle Manu".
@didg9566
@didg9566 2 ай бұрын
Super video, merci pour la synthese!
@korben
@korben 2 ай бұрын
De rien 😁
@fabricemag4151
@fabricemag4151 3 ай бұрын
Je l'ai installé avec Pinokio, c'est facile aussi. Maintenant il faut que j’apprenne à l'utiliser. Merci pour l'aide. :)
@korben
@korben 3 ай бұрын
De rien 😁
@damaslan2246
@damaslan2246 3 ай бұрын
Alors, j'ai essayé il y a quelques mois sur un ordi tout à fait classique. Mon expérience est qu'il faut vraiment un ordi puissant. Au bout de quelques jours, j'ai désinstallé parce que je n'arrivais à rien avec un modèle léger et peu gourmand (un des llamas). Donc à voir les évolutions
@vegetixb52
@vegetixb52 2 ай бұрын
Bonne vidéo pour les bidouilleurs, tout fonctionne au poil ! merci de dégrossir tout ça
@BeussNS
@BeussNS Күн бұрын
mince, le truc ne démarre pas sans connection vers l'exterieur, notamment vers un serveur openai pour récupérer une lstede modeles , je édsinstalle
@csabrie8455
@csabrie8455 3 ай бұрын
Merci 🎉
@pascal-golfdevirton5806
@pascal-golfdevirton5806 Ай бұрын
Pour ce qui est du RAG, est-il possible de charger plusieurs documents? Quelle est la limite totale et par document?
@sylvainskynet1598
@sylvainskynet1598 3 ай бұрын
Merci beaucoup c est sympa ;)
@lanfyp
@lanfyp 2 ай бұрын
Merci. Comment tu as fait pour utiliser whisper pour l'audio ?
@BuckarooBeats
@BuckarooBeats 3 ай бұрын
Bon bein on testera ça quand j'aurai plus un ordi qui rame dés que j'ouvre 4 onglets
@thelastshadowsYT
@thelastshadowsYT 3 ай бұрын
Ca marcherait bien pour ecrire du php ? Et peut on le connecter a internet ou il reste en local ?
@BeussNS
@BeussNS Күн бұрын
salut, c'est chelou qu'on doive s'inscrire et donner une adresse email pour un service qui tourne en local...
@dayanefadebi
@dayanefadebi 3 ай бұрын
❤❤❤❤
@raoul4246
@raoul4246 3 ай бұрын
Salut Korben tu nous ferra une petite suite llama 3.1 Nemotron ?? le modèle a charger dans ollama est le Llama-3.1-Nemotron-70B-Instruct-HF-GGUF
@korben
@korben 3 ай бұрын
hello. J’ai tourné une vidéo où j’en parle mais ce sera pour les Patreons bientôt. Et dans 4 ou 5 semaines pour KZbin
@BaldursQuest
@BaldursQuest 3 ай бұрын
Les LLMs en local sont vraiment limités. Il faut des gros modèles pour que cela soit vraiment efficace.
@XavierPennacchio
@XavierPennacchio 3 ай бұрын
Korben je me permet une remarque : tu vas un peu vite en besogne sur la partie de déclaration de l'adresse d'Ollama j'ai du rajouté ceci --add-host=host.docker.internal:host-gateway sinon ca ne fonctionner pas. T'as du le faire avant mais pour un newbie comme je suis j'étais un peu largué merci perplexity pour le coup je suis resté 2h a essayé de voir avec perplexity ce qu'il y allais pas avec un peu d'intuition je suis partie sur l'adressage réseau, enfin si c'est de cela qu'il s'agit... Mais le reste est parfait merci pour ton travail que tu fais depuis des années.
@korben
@korben 3 ай бұрын
Ah c’est possible. Désolé pour ça.
@XavierPennacchio
@XavierPennacchio 3 ай бұрын
@@korben pas grave tu m’as bien aidé avec ta vidéo c’est l’essentiel
@warvanankenia5286
@warvanankenia5286 3 ай бұрын
Simplifiez-vous la vie en utilisant pinokio (disponible sur Windows, Mac, Linux) et en installant Open WebUI à partir de l'interface de Pinokio, et voilà...
@neuvilleeric5289
@neuvilleeric5289 3 ай бұрын
encore un truc qui fera que les gens reflechiront de moins en moins
@loaknatyr3027
@loaknatyr3027 3 ай бұрын
« Tu ne feras point de machine à l’esprit de l’homme semblable »
@korben
@korben 3 ай бұрын
Mdrrrr
Le problème des Open Worlds
1:09:36
Bazar du Grenier
Рет қаралды 2,2 МЛН
Sigma girl VS Sigma Error girl 2  #shorts #sigma
0:27
Jin and Hattie
Рет қаралды 124 МЛН
Thank you mommy 😊💝 #shorts
0:24
5-Minute Crafts HOUSE
Рет қаралды 33 МЛН
Хаги Ваги говорит разными голосами
0:22
Фани Хани
Рет қаралды 2,2 МЛН
OpenWebUI: A web interface for Ollama!
15:58
Adrien Linuxtricks
Рет қаралды 4,2 М.
J'ai codé une app pour cette console à 50€! (Anbernic)
29:06
Aloïs Deniel
Рет қаралды 1,6 М.
Use Open WebUI with Your N8N AI Agents - Voice Chat Included!
26:06
L'IA enfin libérée ! Un ChatGPT gratuit, local et open source
23:52
Johan : Solutions Digitales
Рет қаралды 78 М.