No video

Host a AI Server

  Рет қаралды 204

Maple Arcade

Maple Arcade

Күн бұрын

Пікірлер: 5
@SwenioMedia
@SwenioMedia 29 күн бұрын
can i deploy just by npm build?
@maplearcadecode
@maplearcadecode 29 күн бұрын
If you want to have a node or nextjs server running on localhost 3000 port, then you can spin that up using npm commands and then expose those ports publicly using ngrok http 3000. Hope this helps.
@SwenioMedia
@SwenioMedia 28 күн бұрын
@@maplearcadecode i use vercel to host it and I just change the domain and it works!
@shadytiger160
@shadytiger160 4 ай бұрын
Knowledgeable 🫡
@maplearcadecode
@maplearcadecode 4 ай бұрын
Thank you 🙌
New Jailbreak Technique for LLMs (ArtPrompt)
9:45
Maple Arcade
Рет қаралды 1,5 М.
Ollama.ai: A Developer's Quick Start Guide!
26:32
Maple Arcade
Рет қаралды 6 М.
艾莎撒娇得到王子的原谅#艾莎
00:24
在逃的公主
Рет қаралды 48 МЛН
Prank vs Prank #shorts
00:28
Mr DegrEE
Рет қаралды 4,2 МЛН
ПОМОГЛА НАЗЫВАЕТСЯ😂
00:20
Chapitosiki
Рет қаралды 27 МЛН
Code Server Is An AWESOME Replacement for VS Code!
13:01
Jim's Garage
Рет қаралды 21 М.
Ollama 0.1.26 Makes Embedding 100x Better
8:17
Matt Williams
Рет қаралды 45 М.
Use Your Self-Hosted LLM Anywhere with Ollama Web UI
10:03
Decoder
Рет қаралды 68 М.
Unlocking The Power Of GPUs For Ollama Made Simple!
11:53
Matt Williams
Рет қаралды 25 М.
Design Your Own Ollama Model Now!
7:39
Matt Williams
Рет қаралды 13 М.
Remote Development with VSCode (SSH)
15:57
Susan B.
Рет қаралды 49 М.
艾莎撒娇得到王子的原谅#艾莎
00:24
在逃的公主
Рет қаралды 48 МЛН