GPU vs CPU: Running Small Language Models with Ollama & C#

  Рет қаралды 3,086

Bruno Capuano

Bruno Capuano

Күн бұрын

Пікірлер: 15
@bdanuw
@bdanuw 2 ай бұрын
Another great video from ElBruno :) Thank you Bruno.
@elbruno
@elbruno 2 ай бұрын
Glad you liked it!
@RomuloMagalhaesAutoTOPO
@RomuloMagalhaesAutoTOPO 27 күн бұрын
👍
@eugene5096
@eugene5096 2 ай бұрын
Thank you Bruno, interesting as usual !!!
@elbruno
@elbruno 2 ай бұрын
@@eugene5096 Thanks! The CPU vs GPU is a wow one 😁
@bilalbilal7674
@bilalbilal7674 2 ай бұрын
Bilal here😊, I think you should go for creating an extension then it will be good and easy to accessible
@elbruno
@elbruno 2 ай бұрын
There is one in the Aspire Community Toolkit: github.com/CommunityToolkit/Aspire/tree/main I may record a video about that one! Best
@muluhsenet7582
@muluhsenet7582 Ай бұрын
❤❤❤
@samirou976
@samirou976 2 ай бұрын
Hi ! This is very interesting but I wonder how it would perform on an NPU ? Is it possible to make it run on NPU ?
@cuachristine
@cuachristine 2 ай бұрын
NPU is a GPU with all the graphics bits removed.
@samirou976
@samirou976 2 ай бұрын
@@cuachristine Yes I know thank you but that was not my question
@elbruno
@elbruno 2 ай бұрын
Ohh that's a great question! I still don't have access to an NPU machine, however, if docker desktop allows access to the NPU, it should work. Let me ask Justin (a fellow CA.NET), who rocks the docker world to see what he can share about this.
@samirou976
@samirou976 2 ай бұрын
@@elbruno Thanks man I would realy apreciate that 🙂
@jimmymac601
@jimmymac601 2 ай бұрын
Does this support multiple GPUs ?
@elbruno
@elbruno 2 ай бұрын
I'm not sure, I'll say no, we may need to check with the ollama team
Anthropic MCP with Ollama, No Claude? Watch This!
29:55
Chris Hay
Рет қаралды 17 М.
Counter-Strike 2 - Новый кс. Cтарый я
13:10
Marmok
Рет қаралды 2,8 МЛН
Хаги Ваги говорит разными голосами
0:22
Фани Хани
Рет қаралды 2,2 МЛН
"Идеальное" преступление
0:39
Кик Брейнс
Рет қаралды 1,4 МЛН
Маусымашар-2023 / Гала-концерт / АТУ қоштасу
1:27:35
Jaidarman OFFICIAL / JCI
Рет қаралды 390 М.
SLM (Small Language Model) with your Data | Data Exposed
7:55
Microsoft Developer
Рет қаралды 10 М.
Explore a New C# Library for AI
9:55
Matt Williams
Рет қаралды 23 М.
Ollama and Semantic Kernel with C#
15:15
Anto Subash
Рет қаралды 3,2 М.
Local LLM Challenge | Speed vs Efficiency
16:25
Alex Ziskind
Рет қаралды 121 М.
Ollama Structured Outputs: LLM Data with Zero Parsing
4:59
Ian Wootten
Рет қаралды 2,8 М.
Using Local Large Language Models in Semantic Kernel
14:29
Will Velida
Рет қаралды 2,6 М.
Run an AI Large Language Model (LLM) at home on your GPU
9:20
Counter-Strike 2 - Новый кс. Cтарый я
13:10
Marmok
Рет қаралды 2,8 МЛН