Пікірлер
@JohnsonLiam-s4b
@JohnsonLiam-s4b 9 күн бұрын
同求笔记
@ayuskiwang4776
@ayuskiwang4776 9 күн бұрын
可以配置远程ollama的url么
@EasyAI-InAction
@EasyAI-InAction 9 күн бұрын
@@ayuskiwang4776 可以的,使用ngrock 内网穿透。参考我之前的一个教程kzbin.info/www/bejne/pquyamduZc-mmtUsi=wNUZzNFEgBQsIfjj
@mazylab
@mazylab 13 күн бұрын
Deep…. 什么的有火遍全球吗?没什么人知道的啊。
@cywu2091
@cywu2091 10 күн бұрын
你不知道不代表别人不知道
@ericapple2408
@ericapple2408 10 күн бұрын
就只有你不知道
@stoneskin2
@stoneskin2 15 күн бұрын
cline 插件用的人更多。 但本地LLM 都机子要求太高,没足够大内存的GPU会慢得要死, 不如用cursor,免费额度可用很久, 而且现在vscode 的copilot都build in 免费了,足够用了。 另外国产免费插件Fittencode也不错。
@EasyAI-InAction
@EasyAI-InAction 13 күн бұрын
买个4090的GPU,LLM推理速度很快,还能畅玩3A大作!😆
@stoneskin2
@stoneskin2 13 күн бұрын
@EasyAI-InAction 不玩游戏的话,买4090的钱不知可以用来多少家的大模型多少年了, 再加上4090的耗电,感觉划不来。 不过有人说现在买二手3090划算。
@EasyAI-InAction
@EasyAI-InAction 13 күн бұрын
@@stoneskin2 3090 24G显存,用起来确实没毛病。但就是有点老了,毕竟50系都出了
@stoneskin2
@stoneskin2 13 күн бұрын
@@EasyAI-InAction 是啊, 正是因为50要出了, 3090才会很快降价。 当然如果不差钱,追求性能,上最新的5090也是一种选择。还看到有人用mac mini m4, 16G跑大模型, 总觉得不如N卡🤔。
@kingfaguam
@kingfaguam 16 күн бұрын
太啰嗦了
@andrewlu8432
@andrewlu8432 16 күн бұрын
用ollama超级慢,不如用api
@TaoTechs
@TaoTechs 14 күн бұрын
取决于gpu
@EasyAI-InAction
@EasyAI-InAction 13 күн бұрын
@@andrewlu8432 取决于你本地机器的GPU。
@jarryzeng3550
@jarryzeng3550 16 күн бұрын
我都用 amazon Q
@3170ccp
@3170ccp 16 күн бұрын
本地搭建 本地资源需求是什么?谢谢
@EasyAI-InAction
@EasyAI-InAction 16 күн бұрын
@@3170ccp 普通的英伟达GPU显卡就可以,甚至CPU也行
@Phil-1234
@Phil-1234 16 күн бұрын
感谢分享,已经用上了
@3170ccp
@3170ccp 16 күн бұрын
@@Phil-1234 你可否告诉我一下?谢谢
@MeowCuteness-c7o
@MeowCuteness-c7o 18 күн бұрын
学习了,这个蛮有用的,适合公司里边内网部署🫰
@EasyAI-InAction
@EasyAI-InAction 27 күн бұрын
🚀DeepSeek-V3 正式发布! 多项评测成绩超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲
@EasyAI-InAction
@EasyAI-InAction 27 күн бұрын
🚀DeepSeek-V3 正式发布! 多项评测成绩超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲
@blakeyang7893
@blakeyang7893 Ай бұрын
支持
@xuande99cn
@xuande99cn Ай бұрын
deepseek 可以像GPTs 那样通过api 来训练自己的模型吗 ,
@lantooo6722
@lantooo6722 2 ай бұрын
追更追更,能讲一下导出到本地,和导入到ollama的部分吗🥺
@EasyAI-InAction
@EasyAI-InAction 2 ай бұрын
@@lantooo6722 等我休假结束做一期😁
@ssr-unrestrained
@ssr-unrestrained 3 ай бұрын
点赞关注,希望坚持下去,虽然这类内容过千粉会慢
@EasyAI-InAction
@EasyAI-InAction 3 ай бұрын
谢谢关注。希望能坚持下去
@Cooiut
@Cooiut 3 ай бұрын
请问可以分享一下笔记吗
@thecutestcat897
@thecutestcat897 3 ай бұрын
感谢分享
@dudu0502
@dudu0502 3 ай бұрын
PC端需要什么配置要求
@EasyAI-InAction
@EasyAI-InAction 3 ай бұрын
模型推理常规家用电脑就行。想要速度更快买一张4060以上的N卡就行
@EasyAI-InAction
@EasyAI-InAction 3 ай бұрын
补充下:ngrok隐射的公网地址支持任意浏览器访问,不局限手机APP
@EasyAI-InAction
@EasyAI-InAction 3 ай бұрын
下一期给大家做一个:在手机上部署/运行任意大模型的教程😁
@lantooo6722
@lantooo6722 3 ай бұрын
更新更新更新!
@EasyAI-InAction
@EasyAI-InAction 3 ай бұрын
已更新😀
@EasyAI-InAction
@EasyAI-InAction 3 ай бұрын
QWEN2.5对该视频的总结:介绍了"有手就行"系列中的Lama Factory工具,这是一个旨在使大语言模型(LLM)微调变得简单而高效的平台。它声称无需任何编码知识便能微调任意大小的语言模型,并已经在GitHub的训练竞赛中获得了第一名的好成绩。发言人特别强调了Lama Factory在微调阿里公司出品的顶级中文模型--千问2.5时的成功经验,体现了其高开放性和有效性。通过展示Lama Factory网页端的使用流程,发言人详细说明了加载模型、指定模型文件位置、选择微调方法和设置训练参数等步骤,并演示了与微调后的模型进行对话和评估的过程。此外,发言人还指出Lama Factory对不同编程背景的用户都极为友好,无论是开发者还是非开发者,都能轻松利用大模型。最后,发言人表达了想要进一步探索Lama Factory提供其他使用方式的愿望,如通过命令行接口来深化对该工具的理解和应用。总的来说,他的讲话重点在于推广Lama Factory这一能够简化大模型微调过程的工具,以及其在实际应用中的高效性和易用性。