Installez votre ChatGPT local sous Linux avec Ollama

  Рет қаралды 9,552

Adrien Linuxtricks

Adrien Linuxtricks

Күн бұрын

Пікірлер: 125
@kelticlago
@kelticlago 2 ай бұрын
Merci !
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Merci beaucoup pour le don !
@duncanvanripple7806
@duncanvanripple7806 26 күн бұрын
Waouw ! Merci pour cette première vidéo. Le sujet me passionne :) J'ai un laptop qui traine avec 32Go de RAM. C'est vraiment pas mal, j'ai hate de voir tes prochaines vidéos. SPOIL : Avec OpenWeb UI c'est encore mieux. Vraiment, MERCI beaucoup !
@AdrienLinuxtricks
@AdrienLinuxtricks 26 күн бұрын
Oui j'ai vu ton message sur l'autre commentaire ! Merci !
@FrancisTrt
@FrancisTrt 2 ай бұрын
Comme d'hab imple et claire. Idée: Exemple d'interfacer llama3 avec des commandes système par exemple surveille le ping vers un site, analyser un log...
@yemky
@yemky 2 ай бұрын
Il t'as saucé dans le descriptif du site. ^^ Très intéressant. Merci.
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
haha
@zebulon75018
@zebulon75018 2 ай бұрын
Merci pour cette vidéo , j espère que vous ferez une vidéo sur les RAG utilisant ollama , bravo
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Ce n'est pas prévu, mais je note l'idée.
@albertalbert8468
@albertalbert8468 2 ай бұрын
Super intéressant, une video qui ouvre des horizons ... vivement la suite BRAVO
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Oui bientôt ! je vais essayer d'alterner Linux et IA dans les prochaines vidéos
@Damien-r1m
@Damien-r1m 2 ай бұрын
Trop cool! Hate de voir la suite 🙂 Merci pour le partage 🙂
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
ça va arriver, je vais essayer d'alterner Linux et IA dans les prochaines vidéos
@jonathanchevallier7046
@jonathanchevallier7046 2 ай бұрын
Merci pour cette vidéo, comme toujours détaillée et claire.
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Merci !
@damiengrabowski3395
@damiengrabowski3395 2 ай бұрын
Très intéressant Merci et bravo ! j'attends la suite avec impatience
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Très bientôt, je vais essayer d'alterner Linux et IA dans les prochaines vidéos
@McSpee
@McSpee 2 ай бұрын
Toujours super bien expliqué, bravo.👍
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Merci à toi 😊
@beonyou
@beonyou 2 ай бұрын
Très intéressant, merci.
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Avec plaisir
@globalservices.c
@globalservices.c Ай бұрын
je cherche a mettre l'ia au commande mon pc mes a chaque fois je fait planté le systeme probléme sudo , tu c'est comment je pourrais faire
@michelpatry4944
@michelpatry4944 2 ай бұрын
malade merci beaucoup pour ce beau tuto
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Merci !
@blackswan6046
@blackswan6046 2 ай бұрын
Vraiment sympa tes vidéos, très clair.
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Merci !
@viba9121
@viba9121 2 ай бұрын
Merci Adrien. Hate de découvrir les fonctions avancées de Ollama
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Oui !
@virgil54
@virgil54 2 ай бұрын
Au top, comme toujours, merci 👍
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Merci à toi 👍
@mathieuberthalay21
@mathieuberthalay21 2 ай бұрын
Merci beaucoup pour la vidéo 🤩
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
De rien :)
@thierryrousseau4424
@thierryrousseau4424 2 ай бұрын
Très intéressant😄:)
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Merci
@zik744
@zik744 17 күн бұрын
merci pour la video
@AdrienLinuxtricks
@AdrienLinuxtricks 17 күн бұрын
Avec plaisir
@ActualiteSciencesFrance
@ActualiteSciencesFrance 2 ай бұрын
Bonne vidéo! Par docker, c'est rapide aussi!
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Aussi, ici, je souhaite comme d'hab montrer toutes les étapes pour comprendre comment ça fonctionne ;)
@refractairebrique7486
@refractairebrique7486 2 ай бұрын
Intéressant 👍!
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Merci !
@zacharietg
@zacharietg 2 ай бұрын
Bonjour, ça me tenterai bien de l'installer sur mon laptop... Est-ce que les 4 Go de données peuvent être mises dans la partition /home ? Il ne me reste que 22 Go à la racine et je voudrais éviter de la remplir complètement, sinon faudrait que je m'amuse à redimensionner mais peur de casser LUKS...
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Oui, tu peux installer dans le home. par défaut c'est dans /usr/share/ollama/.ollama/models mais on peut changer l'emplacement , je vais prévoir une vidéo spécifique sur ce point
@zacharietg
@zacharietg 2 ай бұрын
@ merci beaucoup, j’ai vu que la vidéo est sortie, je regarderai cela la semaine prochaine.
@alphaonex86
@alphaonex86 2 ай бұрын
j'ai rocm 6.1.1 sous gentoo, tout le reconnais bien sauf ollama qui veut un clef spécifique dans /sys... domage
@deadman5714
@deadman5714 2 ай бұрын
bonjour ou bonsoir, après installation, peut-on le désinstaller proprement?
@jean-baptistedelettre1776
@jean-baptistedelettre1776 2 ай бұрын
intéressé aussi par cette question!
@Darktreize
@Darktreize 2 ай бұрын
Si tu veux pas l'installer tu peux le déployer sous forme de container il existe un image ollama. Sinon tu peux aussi passer par l'application gpt4all qui propose une interface graphique et qui est dispo en flatpak
@deadman5714
@deadman5714 2 ай бұрын
@@Darktreize déjà installé mais j'aimerais le désinstaller proprement car je préfère pinokio
@Darktreize
@Darktreize 2 ай бұрын
@@deadman5714 ah ok. du coup faut suivre le process dans l'autre sens, supprimer le user puis les libs et le binaire associé
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Oui tu peux, je n'ai pas prévu d'en parler mais je me le note
@olivierc.7168
@olivierc.7168 2 ай бұрын
Merci pour cette vidéo. Quelle est la configuration minimale pour le matériel ?
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Pour Ollama, très peu. Cela va dépendre en fonctio n des modèles qui seront utilisés.
@davidcoudray2207
@davidcoudray2207 2 ай бұрын
Salut Adrien, j'espère que tu prévois de parler de Open-webui, l'interface Web pour Olama. 😉
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Oui c'est prévu
@fabdunet13
@fabdunet13 2 ай бұрын
Tu es merveilles ma curiosité, je vais regarder. Merci David et merci Adrien
@jean-luclivemont8358
@jean-luclivemont8358 2 ай бұрын
@rachidamirat9470
@rachidamirat9470 2 ай бұрын
Top… comme d'hab…
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Merci
@jean-luclivemont8358
@jean-luclivemont8358 2 ай бұрын
Intéressant!!! Juste une remarque, j'ai, par réflexe lorsque j'installe un serveur, choisi l'installation en English. Quand llama tourne et que je lui pose une question en français, il me répond en anglais.
@jean-luclivemont8358
@jean-luclivemont8358 2 ай бұрын
Pas dépendant de la langue du système: j'ai fait un reinstall en Français, cette fois, et il me répond toujours en anglais. Strange.
@jean-luclivemont8358
@jean-luclivemont8358 2 ай бұрын
Je lui ai demandé pourquoi elle me répond en anglais et depuis elle répond en français... Trop drôle.
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Sur les modèles de petite taille, il peut en effet ne pas répondre en français. Cela dépend aussi du nombre de mots dans la question. Plus il y en a et plus il saura détecter le français
@benjaminrodier6902
@benjaminrodier6902 2 ай бұрын
tuto tres bien expliqué, le prochain pourrait etre axé sur open webui ?
@ISANGEJOEL
@ISANGEJOEL 2 ай бұрын
-Salut adrien, stp je peux savoir c'est quel distribution Linux tu utilises sur ton ordi j'aime bien l'interface. Merci. 👍🏾
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Il s'agir de Fedora Workstation :)
@dgeordgy21
@dgeordgy21 2 ай бұрын
Est-ce que cest possible de lui faire apprendre des documents interne specifique?
@2106chrissas
@2106chrissas 2 ай бұрын
Cela s'appelle un RAG (Retrieval augmented generation) Tu peux utiliser ollama en mode server et une interface qui se connectera à ollama. Exemple d'interface : Openwebui (interface web) ou lmstudio, tu fourniras les documents dans l'UI que tu as choisis et le LLM analysera tes documents.
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
On va en parler, c'est prévu !
@remihernandez800
@remihernandez800 2 ай бұрын
Tres intéressant, un petit tuto sur comment le faire fonctionner avec letta en parallèle de prévu ?
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Je note la suggestion
@Eric.pro94
@Eric.pro94 2 ай бұрын
Salut et merci pour ta vidéo, pourquoi ne pas l’installer avec Docker?
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Salut, je préfère montrer toutes les étapes d'installation et de traiter le sujet de façon complète. On a ainsi la connaissance du fonctionnement, rendant plus facile le "debug" en cas de soucis. Dans la plupart des cas, je préfère cette approche, sans être spécialement réfractaire à docker (ou podman)
@Eric.pro94
@Eric.pro94 2 ай бұрын
@@AdrienLinuxtricks Merci de ta réponse. Donc dans un premier temps tu me conseille de l'installer comme toi sans Docker ou autre?
@yvesprogrammeur
@yvesprogrammeur 2 ай бұрын
top merci
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
De rien
@tybird362
@tybird362 2 ай бұрын
merci adrien!
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
;)
@tybird362
@tybird362 2 ай бұрын
@@AdrienLinuxtricks heureusement que tes videos sont là, c est vraiment trop cool
@jean-baptistedelettre1776
@jean-baptistedelettre1776 2 ай бұрын
cool! je suis curieux de savoir quelle différence de résultat il y a entre le modèle 8b et le 70b.. quelle ressources pour le 405b? ça me donne envie de tester! merci pour cette vidéo!
@2106chrissas
@2106chrissas 2 ай бұрын
Au dessus de 8B, il faut un GPU. le CPU est trop lent pour les gros modèle de LLM
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
👍 Je n'ai plus de machine avec suffisemment de RAM pour tester. La version 70b donnait des résultats déjà très intéressants et plus précis que 8b. Pour le 405b, il suffit de la récupérer, et de tester de la lancer, il dira ce qu'il est nécessaire d'avoir (c'est peut être indiqué dans une doc aussi)
@rorotoche
@rorotoche 2 ай бұрын
Bonjour Adrien, j'ai peut-être raté un truc mais il m'a semblé que tu allais montrer la charge processeur quand ollama est en train de répondre puisque tu la montres avant. Ça aurait été intéressant de voir la charge processeur sur ce "petit" modèle.
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Ah oui, j'ai loupé, c'est 100% sur tous les coeurs !
@rorotoche
@rorotoche 2 ай бұрын
@AdrienLinuxtricks merci !!
@kristof9497
@kristof9497 2 ай бұрын
Merci.
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
:)
@mwlulud2995
@mwlulud2995 2 ай бұрын
Salut, j'espère que tu montrera comment connecter cette LLM à une interface graphique du type web comme Open-webui, et même des applications desktop !!!
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Oui, c'est prévu
@francoislepron2301
@francoislepron2301 2 ай бұрын
Excellente vidéo et explications. Est-ce possible de faire tourner ollama sur WSL2 sous Windows 11 64 bits pro (64 Go RAM, 6 To SSD) en utilisant votre tuto ?
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
A tester, je ne sais pas, je n'ai pas de machine Windows pour faire le test. De plus je ne sais pas comment le calcul GPU se fait. Mais il existe une version Windows de Ollama
@d3vn0o6
@d3vn0o6 2 ай бұрын
yo, super video comme dab, je sais pas si tu connais ,pour ce qui sont allergique a la ligne de cmd il existe un flatpak Alpaca l'appli desktop de ollama
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Oui, je connais, c'est dans la liste des thèmes à aborder
@lincredule9722
@lincredule9722 2 ай бұрын
Le problème avec le local est la date de son entraînement du modèle. Par exemple, ne posez pas une question sur un événement qui s'est passé il y a deux semaines à un modèle de juin 2024. J'avais installé LM Studio au printemps dernier, mais je ne l'utilise que très rarement. J'utilise plutôt Perplexity. En général, le modèle 70B donnera une réponse plus réfléchie et plus détaillée pour des questions qui ne dépassent pas la date de son entraînement. Pour le 8B, la réponse sera plus basique (plus bête) , et si tu le corriges, il s'excusera. C'est une des faiblesses du local : ils passent leur temps à s'excuser.
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Perplexity est en effet en "temps réel". Mais l'avantage du local c'est que tu peux modeler le modèle à ta façon, je le montrerai dans une prochaine vidéo. Mais tu n'as pas besoin de connexion à Internet, tu peux l'héberger toi même et l'intégrer à tes applications sans frais d'API.
@jeromedesbois6907
@jeromedesbois6907 2 ай бұрын
Salut Adrien, merci pour ta vidéo. Juste une petite question stp. Je sais que tu es actuellement focalisé sur Ollama, mais penses tu pouvoir faire vite fait un petit comparatif avec Pinokio si jamais tu en as le temps et l'envie bien entendu. Je te remercie d'avance.
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Je vais déjà finir les petits trucs sur Ollama. Il faut que je regarde aussi llamacpp, je note aussi dans la liste pinokio
@jeromedesbois6907
@jeromedesbois6907 2 ай бұрын
@@AdrienLinuxtricks Merci 👍
@Pasty0386
@Pasty0386 2 ай бұрын
L'idée est excellente et m'a donné envie de faire une installation mais avec mes 8go de ram je ne vais pas aller loin 🤣🤣
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Tu peux tester avec un petit LLM, cela permet de s'amuser quand même un peu (mais moins précis)
@fabdunet13
@fabdunet13 2 ай бұрын
Salut Adrien . Avec casa OS y’a des module pour l’intelligence artificielle. Une plate-forme qui ressemble à ChatGPT et qui utilise le GPU et CPU de ton PC. Il y a d’autres trucs que je n’ai jamais exploré. Pourrais-tu en faire une vidéo ?😂
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
On a parlé de casaOS il y a un moment, mais il n'y avais pas de module IA (on n'avait pas exploré le sujet)
@bluekent69
@bluekent69 2 ай бұрын
Oh que la série qui s'annonce va être intéressante surtout que je viens de changer mon poste pro .... 🙂. Par curiosité tu utilises quoi comme distrib linux pour faire tourner tout le reste ?
@TitanSurtur
@TitanSurtur 2 ай бұрын
Fedora Server et Fedora Workstation 😉
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Comme indiqué dans le descriptif, Fedora Workstation sur mon PC Fixe (idem sur le PC portable où je fais mes formations Linux) Le serveur à la maison qui fait tout est sous Gentoo
@bluekent69
@bluekent69 2 ай бұрын
Ah zut j'avais pas vu que tu avais mis cette info dans la description. Est ce que tu pense faire une vidéo sur l'installation de cuda ? Sur mon poste fixe de boulot j'ai une carte NVIDIA et j'aimerais bien l'utiliser pour faire un peu d'IA.
@TheWatcher241212
@TheWatcher241212 2 ай бұрын
Ce qui serait utile, c'est de pouvoir fournir des documents au modèle et de pouvoir l'interroger ensuite sur ces documents.
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
On va voir jusqu'où on peut aller ;)
@rodolpher8056
@rodolpher8056 2 ай бұрын
Un peu d'IA, cool !
@neurophonie42
@neurophonie42 2 ай бұрын
+1
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
:)
@putinputout5563
@putinputout5563 2 ай бұрын
Une présentation de clear linux est-elle prévue prochainement ? J'ai des problèmes pour installer la version desktop en vm personnelement ^^.
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Ce n'est pas prévu pour le moment, mais j'avais noté il y a 2 ans de la tester, ce que je n'ai jamais fait
@dominiquec.8386
@dominiquec.8386 2 ай бұрын
Question de noob ... j'ai plutôt apprécié le llm "aya" mais , passons. Comment faire pour que l'ia puisse bosser sur un fichier local , c'est le truc que je n'ai pas trouvé. Si tu as des llm à recommander selon ce qu'on veut faire, comme par exemple , travailler sur un fichier de tableur... je suis preneur aussi d'une vidéo explicative .
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
C'est un peu plus compliqué que ça, je vais voir comment faire une vidéo sur le sujet ou un tuto, en fonction de la machine que j'ai à ma disposition
@thierrybo6304
@thierrybo6304 2 ай бұрын
Tien il faut que je teste ça sur mon pc Linux. Jje viens juste d,installer sur mon pc de boulot sous Windows LM Studio + AnythingLLM pour essayer d,avoir un chat AI que j'enrichis avec des tas de docs professionnelles (pdf, Word) que jui fait ingurgiter.
@haibaidzokwomandre1468
@haibaidzokwomandre1468 2 ай бұрын
regarde la vitesse de ta connexion. je n'arrive meme pas a avoir 5MB/s
@rastaquoueres7655
@rastaquoueres7655 21 күн бұрын
Du coup, on a une bibliothèque d'informations et la bibliothéquaire qui va avec pour faire des recherches. Pas d'images, pas de sons et vidéos, juste le bla bla de la bibliothéquaire... même pas migonne ! Et en plus, il faut avoir un gros PC, sinon la bonne femme ne vous adresse même pas la parole ! ça s'appel pas du masochisme ?
@thierryrousseau4424
@thierryrousseau4424 2 ай бұрын
First 🤗:)
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
héhé
@djalbox3976
@djalbox3976 2 ай бұрын
Vraiment sympa tes vidéos, très clair.
@AdrienLinuxtricks
@AdrienLinuxtricks 2 ай бұрын
Merci !
DuckduckGo : 4 modèles IA (dont ChatGPT) en accès libre et sans pistage !
13:00
Optimize the performance of your Linux machine with tuned!
14:02
Adrien Linuxtricks
Рет қаралды 6 М.
Непосредственно Каха: сумка
0:53
К-Media
Рет қаралды 12 МЛН
Жездуха 42-серия
29:26
Million Show
Рет қаралды 2,6 МЛН
Linux : Mettre à jour les firmwares et l'UEFI avec fwupd !
12:58
Adrien Linuxtricks
Рет қаралды 9 М.
Comment installer parfaitement linux mint 22 pour travailler sans se crasher ?
53:11
L'Atelier de Libre Master
Рет қаралды 1,9 М.
Why No One Uses Linux ...
7:36
Michael Horn
Рет қаралды 73 М.
MX Linux 23.5 is here! Starting a long-term test of the "AHS" variant?
26:21
Ollama on Linux: Easily Install Any LLM on Your Server
12:56
Ian Wootten
Рет қаралды 33 М.
Linux commands are USELESS... therefore essential!
12:15
Adrien Linuxtricks
Рет қаралды 11 М.
Zenity : Des boites de dialogue pour vos scripts shell
17:17
Adrien Linuxtricks
Рет қаралды 4,7 М.