KZ
bin
Негізгі бет
Қазірдің өзінде танымал
Тікелей эфир
Ұнаған бейнелер
Қайтадан қараңыз
Жазылымдар
Кіру
Тіркелу
Ең жақсы KZbin
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
What Happens When Magnifying Chips Thousands of Times?
16:39
我对王局的看法发生了些变化
47:15
Каха и дочка
00:28
СИНИЙ ИНЕЙ УЖЕ ВЫШЕЛ!❄️
01:01
Этот бой - Самое большое РАЗОЧАРОВАНИЕ за всю КАРЬЕРУ БУАКАВА!
01:00
黑天使只对C罗有感觉#short #angel #clown
00:39
DeepSeek-R1 最强开源AI大模型!本地部署,完全免费,实力媲美 OpenAI o1 | 零度解说
Рет қаралды 59,558
Facebook
Twitter
Жүктеу
0
Жазылу 969 М.
零度解说
Күн бұрын
Пікірлер: 749
@lingdujieshuo
Күн бұрын
已上传CC字幕💯
@梦里不知身是客一响贪
Күн бұрын
自己赞自己,可还行😂
@mudboy117
Күн бұрын
kimi
@磊哥
Күн бұрын
DeepSeek是完全中国国产的大模型,这家公司在杭州,一共139个工程师和研究人员。只用了50万美元的成本和阉割版的GPU就训练出了这个大模型
@williammartinez8578
Күн бұрын
500万美元,你在视频里说错了。
@antideology
Күн бұрын
华为孝子转投DeepSeek孝子了吗
@Diablo_S728
Күн бұрын
野生磊哥一只
@千言萬語在心頭
Күн бұрын
558万美元,别乱说
@thexiu
Күн бұрын
轉人工
@seekthetruth2576
Күн бұрын
前两天还在想,零度什么时候能聊一下Deepseek R1,今天果然来了
@hasszhao
Күн бұрын
本频道最吸引人的地方是楼主接地气的声线,我真的是冲着这个来了。 不过content也很棒。😆😆😆😆
@Phillipisland168
Күн бұрын
真的好聽❤
@xiaoha798
Күн бұрын
这是温州口音吗
@OvOLa
Күн бұрын
废话和卡顿都没有,全是干货
@baptisam206
22 сағат бұрын
为什么ollama 安装之后打开没有任何反应
@vampirzon
Күн бұрын
零度能不能出一期使用免费的AI模型配合免费在线翻译的插件实现油管视频比较高质量的在线翻译?
@bauglee3005
21 сағат бұрын
“沉浸式翻译”,就叫这个名字,是个粉色图标,可以实现傻瓜式视频双语字幕
@KKL-i2l
Күн бұрын
我已经实测了4天了,deepseek的代码能力真的不错,对于我来说基本平替了claude3.5,价格太香了。
@weihe2137
Күн бұрын
为啥免费还要花钱
@eelrepus
23 сағат бұрын
You 明天的昨天是昨天的那一天? deepseek-r1:1.5b 对不起,我还没有学会回答这个问题。如果你有其他问题,我非常乐意为你提供帮助。
@Taidusb
23 сағат бұрын
@@weihe2137 API
@kuku4629
23 сағат бұрын
@@weihe2137 他不想装本地,想用官方API呗
@gordengan
22 сағат бұрын
@@weihe2137 网页对话不要钱,调API要钱的
@Destroyall84
Күн бұрын
另外再请教下,我按教程安装Ollama后已经启动了,但是没有命令行窗口,看本视频是直接点击后台图标就弹出了,可是我点击就会跳到一个文件夹,里面只有两个文本文件和一个json后缀的文件,难道是我哪里没操作对吗?
@WendiHou
Күн бұрын
命令行窗口 输入ollama list。然后把模型的名称复制一下。输入ollama run (模型)
@Kalman_168
Күн бұрын
同上,请问怎么解决呢?
@Alsoallerdings
Күн бұрын
在安装目录下启动cmd然后输入ollama
@heHhh-y9p
Күн бұрын
win+r健,输入cmd,回车,然后直接复制粘贴视频里的对应的安装目录的内容就行了
@Destroyall84
21 сағат бұрын
@@Kalman_168 还没解决,我删掉了,还是用云端算了。
@DHZ168
Күн бұрын
有些比較燒腦的程式邏輯OpenAI會像鬼打牆一樣繞不出去,同樣的問題拿去問DeepSeek卻能解開,真是太神奇了!
@paulxie1716
Күн бұрын
中国人智商南玻万,这还有疑问?
@eelrepus
23 сағат бұрын
You 明天的昨天是昨天的那一天? deepseek-r1:1.5b 对不起,我还没有学会回答这个问题。如果你有其他问题,我非常乐意为你提供帮助。
@errof253
23 сағат бұрын
@@eelrepus1.5b就算了😂,甚至还是4bit量化
@kuku4629
23 сағат бұрын
@@eelrepus 试着升级下电脑换个好点的GPU吧。
@PadWood-123
21 сағат бұрын
字打错了,应该用“哪”。
@101worlds
Күн бұрын
請問本地部屬介面只能上傳圖片,不能上傳代碼提供R1修改編輯嗎?
@PengfeiT
Күн бұрын
头型真心不错啊👍
@alexlei7059
Күн бұрын
你好, 可以请问安装好了,20g显存 。 不过反应速度很慢呢。 ollama-server cpu占用很高
@alexlei7059
Күн бұрын
你好, 可以请问安装好了,20g显存 。 不过反应速度很慢呢
@fangyinzhang8768
Күн бұрын
多谢分享!请教两个问题:(1) 我用的是 AMD Radeon RX 7600 XT 的显卡,Ubuntu 24.04 LTS, 你的博客提供的Ollama 安装脚本安装结束后显示 “ NVIDIA GPU installed", 这会影响Ollama 和DeepSeek 运行吗?(2) 运行 “ollama run deepseek-r<a href="#" class="seekto" data-time="74">1:14</a>b” 后,最后显示 "writing manifest", "success", "Error: llama runner process has terminated: signal: illegal instruction (core dumped)". 请问如何解决这个问题? 谢谢!
@fangyinzhang8768
Күн бұрын
好像是 CPU does not support AVX512
@jikeluotang
20 сағат бұрын
我想问下 为什么要本地部署啊? 不能直接用联网的吗?
@熊出没-u5b
22 сағат бұрын
这个不是直接访问网站就可以使用吗?意思是可以不联网脱机状态下使用?还是部署了以后可以无限制使用深度思考模式啊??
@xiaotaoj
22 сағат бұрын
网站关了,你就用不了 本地部署后,就算网站关了,你也可以用
@熊出没-u5b
21 сағат бұрын
@@xiaotaoj 部署本地后,脱机和联网都可以用是吗?
@akio1366
Күн бұрын
我之前一直在用4o+01,还有3.5的sonnet(配合提示次优化的版本),然后对于所谓的天天挑战chatgpt的模型很不屑,但r1这么大音量又免费就去试了试,发现生成的内容确实有惊喜,如果答案不满意可以多生成几次,反正他网页端免费,有时候确实会有很高质量的另类深度回答。
@SamSunBJ
Күн бұрын
你好,选择联网时候显示Ollama call failed with status code 403:是什么情况,怎么解决?
@lingdujieshuo
Күн бұрын
connect to Ollama :127.0.0.1:11434 改成 localhost:11434 试试
@adamsmith5735
Күн бұрын
为什么不用LM Studio
@lingdujieshuo
Күн бұрын
LM Studio 稳定性不行
@sevenaac4783
Күн бұрын
真的是簡潔又實用❤
@eelrepus
23 сағат бұрын
You 明天的昨天是昨天的那一天? deepseek-r1:1.5b 对不起,我还没有学会回答这个问题。如果你有其他问题,我非常乐意为你提供帮助。
@mwp-yy9xb
21 сағат бұрын
哇趣,deepseek不支持arc显卡吗?直接拿我的破i3硬生生跑起来了
@user-fq9hx2fx3e
20 сағат бұрын
可以上传文档吗?我没有找到上传入口
@Some0ne...
Күн бұрын
最後那些問題很不錯
@KuaiLeWangGuo
Күн бұрын
同样这道题:【1块钱一瓶可乐,用两个空瓶可以再换一瓶可乐,假设你只有20元钱,最多可以喝到几瓶可乐?】 我安装的deepseek给出的答案是: 要解决这个问题,我们需要理解可乐瓶的兑换机制和预算分配。以下是详细的步骤解释: 初始购买:用20元购买可乐瓶,每瓶可乐的价格为1元,因此最初可以购买20瓶可乐。 第一次兑换:使用20瓶可乐,兑换2瓶新的可乐瓶。剩下的可乐瓶数量为20 - 20 = 0瓶,但获得了2瓶新可乐瓶。 第二次兑换:现在有2瓶可乐,可以再次兑换1瓶可乐瓶。此时,总共有2 - 2 = 0瓶旧可乐瓶,获得了1瓶新的可乐瓶。 后续兑换:每兑换一次,需要2瓶旧可乐瓶,换得1瓶新可乐瓶。因此,每次兑换都会减少1瓶旧可乐瓶,而总数保持为1瓶。 通过上述步骤,可以看出: 初始购买:20瓶 第一次兑换:20 - 20 + 2 = 2瓶 第二次兑换:2 - 2 + 1 = 1瓶 以后每次兑换都保持1瓶 因此,最多可以喝到 21瓶 可乐。
@KuaiLeWangGuo
Күн бұрын
换了跟零度一样的【ollama run deepseek-r1:14b】模型来计算这题: 嗯,这个问题看起来有点有趣。让我先仔细读一遍题目: “1块钱一瓶可乐,用两个空瓶可以再换一瓶可乐,假设你只有20元钱,最多可以喝到几瓶可乐?” 好,首先,我有20元钱,每瓶可乐1元,所以我一开始可以用这20元买20瓶可乐。这是我的初始购买量。 接下来,题目说用两个空瓶可以换一瓶新的可乐。这意味着每喝完一瓶可乐后,我就有了一个空瓶,但需要两个空瓶才能兑换一瓶新的可乐。 那么,我应该如何利用这些空瓶来获得更多的可乐呢? 让我一步一步地分析: 初始购买:20元钱,可以买20瓶可乐。这20瓶喝完后,我有20个空瓶。 第一次兑换: 用20个空瓶,每两个换一瓶新的可乐。 所以,20 ÷ 2 = 10瓶新可乐。 现在,我喝了这10瓶后,又有10个空瓶。 第二次兑换: 再用10个空瓶换5瓶新的可乐(因为10 ÷ 2 = 5)。 喝了这5瓶后,又有了5个空瓶。 第三次兑换: 用5个空瓶,每两个换一瓶,可以换2瓶新的可乐(因为5 ÷ 2 = 2余1)。 喝了这2瓶后,又有2个空瓶,加上之前剩下的1个空瓶,总共有3个空瓶。 第四次兑换: 现在有3个空瓶,可以再用两个换一瓶新的可乐(3 ÷ 2 = 1余1)。 喝了这1瓶后,又有1个空瓶,加上之前剩下的1个空瓶,总共有2个空瓶。 第五次兑换: 再用这两个空瓶换一瓶新的可乐。 喝了这瓶后,又有一个空瓶,但只剩一个空瓶,无法再进行兑换。 现在,我来统计一下总共喝了多少瓶: 初始购买:20瓶 第一次兑换:10瓶 第二次兑换:5瓶 第三次兑换:2瓶 第四次兑换:1瓶 第五次兑换:1瓶 总和为20 + 10 + 5 + 2 + 1 + 1 = 39瓶 但是,我觉得哪里好像不对,因为我每次喝完可乐都会得到空瓶,可以继续用来兑换新的可乐,理论上可能会有更多。 让我再仔细算一次: 初始购买:20瓶,花费20元。 喝了20瓶后,有20个空瓶。 第一次兑换: 用20个空瓶换10瓶新的可乐(因为每2个空瓶换1瓶)。 花费为0元,因为已经用完预算。 喝了这10瓶后,又有10个空瓶。 第二次兑换: 用10个空瓶换5瓶新的可乐。 喝了5瓶后,有5个空瓶。 第三次兑换: 用5个空瓶换2瓶新的可乐(因为每2个空瓶换1瓶)。 喝了2瓶后,又有2个空瓶。 第四次兑换: 用2个空瓶换1瓶新的可乐。 喝了1瓶后,有1个空瓶。 第五次兑换: 现在只有一个空瓶,无法再进行兑换。 因此,这次的总和是: 初始购买:20瓶 第一次兑换:10瓶 第二次兑换:5瓶 第三次兑换:2瓶 第四次兑换:1瓶 总共是20 + 10 + 5 + 2 + 1 = 38瓶 看起来我第一次计算多算了一瓶。其实,在第四次兑换后,只有1个空瓶,无法再兑换新的可乐。 不过,我有点困惑,因为根据一些类似的题目,最终答案应该是39瓶。可能我的计算过程中哪里出错了。 让我再仔细检查一下: 初始购买:20瓶 第一次兑换:用20空瓶换10瓶,喝了10瓶后有10个空瓶。 第二次兑换:用10空瓶换5瓶,喝了5瓶后有5个空瓶。 第三次兑换:用5空瓶换2瓶(因为每2个换1瓶),喝了2瓶后有2个空瓶。 第四次兑换:用2空瓶换1瓶,喝了1瓶后有1个空瓶。 第五次兑换:现在只有一个空瓶,无法再进行兑换。 总结一下: 初始购买:20瓶 第一次兑换:10瓶 第二次兑换:5瓶 第三次兑换:2瓶 第四次兑换:1瓶 总共喝了 38瓶 可乐。 然而,根据一些类似的问题,最终答案通常是 39瓶。这可能是因为在某些计算中,最后的空瓶可以累计起来继续兑换,或者我的计算过程中有遗漏。为了确保准确性,我会再仔细检查一次: 初始购买:20瓶 喝完后,有20个空瓶。 第一次兑换: 用20个空瓶换10瓶。 喝完后,有10个空瓶。 第二次兑换: 用10个空瓶换5瓶。 喝完后,有5个空瓶。 第三次兑换: 用5个空瓶换2瓶(因为每2个换1瓶)。 喝完后,有2个空瓶。 第四次兑换: 用2个空瓶换1瓶。 喝完后,有1个空瓶。 第五次兑换: 现在只有一个空瓶,无法再进行兑换。 总计:20 + 10 + 5 + 2 + 1 = 38瓶 看起来我的计算是正确的,最终答案应该是 38瓶。
@Zj-Aka
20 сағат бұрын
@@KuaiLeWangGuo我让它计算是39瓶。
@pinyiu
Күн бұрын
本地部署後是不是沒了深度思考跟聯網搜尋的功能?
@PandaPulse-z7b
Күн бұрын
本地使用大概只有深度思考模式,我是去网站直接用,大多数普通人的购买建议必须需要互联网搜索
@lingdujieshuo
Күн бұрын
@@PandaPulse-z7b 视频里演示的本地部署自带网络搜索功能
@luodike3343
Күн бұрын
本地部署后可以和cline,continue这些vscode的插件对接吗
@brookssong4437
Күн бұрын
我猜测可以的,虽然我暂时没使用过deepseek,但是我用ollama+qwen没问题。例如continue,选择更改配置,它会打开config.json,在models和tabAutocompleteModel里,模仿现有的配置,增加ollama+deepseek的配置即可。例如:{"title":"xxxx", ”model":"deepseek-you-downloaded","provider":"ollama"}。
@kerrywj8151
Күн бұрын
直接用APP和本地部署有啥区别呢
@nganwong-ub2je
Күн бұрын
深度求索(中文:深度求索;拼音:Shēndù Qiúsuǒ)是一家開發開源大型語言模型的中國人工智慧公司。該公司由中國對沖基金 High-Flyer 獨家資助。DeepSeek 和 High-Flyer 都位於浙江杭州。
@KeiKei903
Күн бұрын
这次比 0 D 快了点,已经玩了8B了,要她写点爱情小说,还是很湿的 ~~~ 下次是否讲讲如果用R1 本地部署自建的知识库 ~~~ 虽然网上有,但 0 D 发布,永远是安全和品质的保证 ~~~
@gabrieljoseph6060
Күн бұрын
0d是啥
@brandtlai1247
Күн бұрын
@@gabrieljoseph6060po主叫零度
@qa2q616
Күн бұрын
@@gabrieljoseph6060 0d=零度解说?
@rockyshi9609
Күн бұрын
6g显存的移动版3060能玩哪个版本。。。
@ruijie-f5i
Күн бұрын
@@rockyshi9609 7B?你自己可以试一试
@fpw6666
Күн бұрын
请问博客里面给出的下载链接是DeepSeek-R1-Distill 模型吗?
@lingdujieshuo
Күн бұрын
嗯,博客上已经提供手动下载链接
@SexyGirls-v9f
Күн бұрын
能不能出一期ComfyUI照片跳舞教程
@vergilkira5979
Күн бұрын
本地部署和在官网使用有什么不同吗?
@思思Sicily
Күн бұрын
信息安全性不同哦
@晨杨-q2f
Күн бұрын
官网是满血模型 算力足够更智能 自己部署可以更隐私也可以自己微调 让它更涩涩或者哪方面更专业 但吃硬件
@小和尚-s1q
21 сағат бұрын
链接在哪里
@Michael-sc7yt
Күн бұрын
macmini 4 集成显卡性能够装哪个模型啊。。。。。好像装不了吧😂
@rockyshi9609
22 сағат бұрын
你可以直接去问deepseek啊,我也是不清楚6g显存能用哪个版本,问了ai他告诉我了
@peterlin2113
22 сағат бұрын
可以幫忙問一下A股該買還是該賣?
@Alex-ji3me
22 сағат бұрын
😂
@angy9730
Күн бұрын
播主是4090显卡吗?我的7900xtx,虽然也是24g显存,但部署14b,运行非常慢,显卡直接飙到100%,显存倒是只占用几个G而已。
@fffblue7252
Күн бұрын
相信不支持AMD的顯卡,只是在調用CPU
@shijiezhang38
23 сағат бұрын
N卡有cuda核心专门负责ai运算,A卡只能硬算,效率低非常多
@alanshown4331
Күн бұрын
和claude3.5sone比谁测试评分高
@lihuanzhao
Күн бұрын
零度哥,A卡也是一样的安装吗?
@PandaPulse-z7b
Күн бұрын
你可以试试,昨天看了新闻,deepseek和amd有合作了
@lml2270
Күн бұрын
我安装了Ollama之后无法打开对应的终端呢?
@baptisam206
22 сағат бұрын
我也是没有跳出终端界面
@rockyshi9609
22 сағат бұрын
直接自己打开命令行终端就行,cmd或者powershell
@mccoywang6671
Күн бұрын
如果本地布置是不是速度快一点?
@tobiichioriguchi
Күн бұрын
官网快 (如果你的显卡是H100, A100那些, 那当我没说) 而且官网直接聊天是免费的, api要钱, 但是也不贵, 白菜价
@lingdujieshuo
Күн бұрын
取决你的显卡性能,视频里有说明选择,只要是在GPU性能范围内,本地都非常快
@青椒肉丝-q4w
20 сағат бұрын
请问 不用了的话怎么卸载呢
@Doomgamezj
23 сағат бұрын
零度大佬 如果不想用ollama run deepseek-r<a href="#" class="seekto" data-time="67">1:7</a>0b 怎么删除?
@kunliu7827
Күн бұрын
本地部署,要求机器配置这么高哦。现在连当年的 P50机型,都跟不上了啊
@xutao6633
Күн бұрын
南北向火车人群分流问题,回答出现无限循环,1.5B和7B大模型都是这个情况。
@阿斯顿法国红酒快-t9l
Күн бұрын
为何没有与llama3的对比?开源模型的直接竞争对手不是llama3吗?特别是在70b及以下的规模上。
@Mega5035
Күн бұрын
llama3连o1都赶不上吧(甚至不如GPT4),有什么好比的。。。😂
@阿斯顿法国红酒快-t9l
Күн бұрын
@ 不见得,因为个人用户基本只能用到70b模型。
@lingdujieshuo
Күн бұрын
DeepSeek-R1 对标的是OpenAI o1模型,llama3 目前没法跟它比
@superjun2534
Күн бұрын
如何把它们装在其他盘里?这个困扰了好久
@lingdujieshuo
Күн бұрын
把 Ollama 安装到其它盘上即可 ,在CMD下可以指定盘符
@胖丁2025
22 сағат бұрын
@@lingdujieshuo 能不能详细说一下怎么安装到d盘呀
@weihe2137
Күн бұрын
本地版和网络版得优缺点是啥
@gabrieljoseph6060
Күн бұрын
问他strawberry 里面有几个r,回答依然是两个
@social-investigation
Күн бұрын
我的回答是这个:在单词 **strawberry** 中,字母 **r** 出现的次数为 **3 次**。具体分布如下: 1. **s** 2. **t** 3. **r**(第一个 r) 4. **a** 5. **w** 6. **b** 7. **e** 8. **r**(第二个 r) 9. **r**(第三个 r) 10. **y** 拼写结构为 **s-t-r-a-w-b-e-r-r-y**,其中 **straw** 部分含 1 个 r,**berry** 部分含 2 个 r。因此,总共有 **3 个 r**。
@linfan
Күн бұрын
我开了深度搜索发现没问题呀
@小脑斧っc
Күн бұрын
刚刚试了,回答3个
@Ricky-ql9jh
Күн бұрын
有支援amd或用cpu跑的嗎?
@jamescooper777
Күн бұрын
像Ollama 這類「執行模型推論」的介面程式平台,它直接執行預設就是用CPU上面跑,for Intel 、AMD、Apple M 都有, 要想利用顯卡加速,是要設定顯卡的驅動程式和安裝顯卡提供的AI 運算框架與函式 模型本身和能不能在哪種硬體上面跑並沒有絲毫關係。
@WendiHou
Күн бұрын
你没用支持amd的那个版本的话,它识别不出来你的amd显卡会直接用cpu运行。
@退保平
Күн бұрын
博主用的是R1 还是V3?
@lingdujieshuo
Күн бұрын
R1
@SusBonTan
20 сағат бұрын
你一直都在用V3,R1只有深度思考,你不开深度思考这个功能那个就不是R1是V3@@lingdujieshuo
@ynm7851
Күн бұрын
请问m4的mac推荐哪个版本呀?
@fpw6666
Күн бұрын
内存大的
@仁-g7r
Күн бұрын
這個開源模型,真的是目前開源最強,最經濟實惠的!真的很棒! OpenAI什麼時候要改名??
@Outman9527
Күн бұрын
本地部署是不是必须需要好的硬件?
@无能狂怒-n4z
Күн бұрын
4090
@jamescooper777
Күн бұрын
相同參數量的一個模型名稱,硬件顯存愈大,能載入量化愈少、Size愈大的檔案,回答內容就會愈聰明, 相同的一個模型檔案,硬件性能愈好的,等候它開始回答的時間就愈短,它回應時吐出的字數就愈快
@ching5614
Күн бұрын
何時要開箱5090
@Quicknowl
Күн бұрын
有没有没有审查限制的,越狱的。比较强的模型
@doctorywhy8955
Күн бұрын
据说Mistral模型没有限制
@豌豆豌豆-b4d
Күн бұрын
部署了32B,前面部署的5,7B要删除吗?占电脑空间吗?
@Destroyall84
Күн бұрын
请问我的4080S显卡用哪个版本比较合适?
@坏猫-b8g
Күн бұрын
信我的。直接llama 3.2 v ,别用中国造的骗补垃圾AI🤣
@Beagle5ce
Күн бұрын
只能用4bit量化版, 16GB显存不够运行更大版本的.
@Destroyall84
Күн бұрын
@@Beagle5ce 好的,感谢回答,这点N卡就是显存和位宽给的太抠了,A卡显存和位宽给的大方但是没CUDA,不知道能不能跑本地。
@Beagle5ce
Күн бұрын
@@Destroyall84 A卡好像是有转义的插件,不过实际效果不太好,打折扣了。 这也是为什么N卡能这么抠的原因了😂
@songeric8244
Күн бұрын
请教一下,我amd8845可以部署吗?部署哪个级别的模型?
@WendiHou
Күн бұрын
我觉得极限就是1.5b了。在往上好像就7b了。
@cjchengnz
Күн бұрын
我給了這題數學難題,但DeepSeek卻給我錯誤答案,儘管我曾多次暗示與引導,它仍然堅持己見,始終給我錯的答案70% (正確答案為75 %) 一次測驗共五題, 第一至五題的答對率分別為88%,91%,85%,86%,60%。 答對三題(含)以上者為及格。則本測驗及格率至少為多少?
@yeshwhrsfzshb7464
Күн бұрын
没有100%正确的模型。 也可以找到deepseek回答正确,但chatgpt回答错误的例子。
@yiwt-q4k
Күн бұрын
我是小白,请问这个对于中学生来说有什么用?可以具体举个例吗?谢谢大神们
@玩意儿别急啊逆天
Күн бұрын
本地部署,喂黄色语料,然后狠狠地撂荒😠😠😠
@天才易
22 сағат бұрын
中学生尽量还是别接触这种 😂省得什么寒假作业,暑假作业都靠他来完成
@Michael-sc7yt
Күн бұрын
安装后不要了怎么删除啊?
@magicer911
Күн бұрын
4070s能用14b的模型吗?
@lingdujieshuo
Күн бұрын
可以,但是稍微有点吃紧
@magicer911
23 сағат бұрын
@@lingdujieshuo 谢谢,已经在用了,目前一切正常。
@AMDchan
Күн бұрын
Mac mini 32gb可以用吗?建议是用什么版本呢
@rockyshi9609
22 сағат бұрын
你可以直接问DeepSeek啊,就说我是macmini,想用你的本地部署,你告诉我应该用哪个版本
@AATV-GJ
21 сағат бұрын
如何部署 deepseek coder 啊
@freewind8465
Күн бұрын
自从出现 deepseek回答自己是gpt的翻车事件后 现在只要一问他关于deepseek的问题 包括如何微调 多少参数都变成了 统一回复: 请自己看文档😂😂😂
@arsdrf
Күн бұрын
至少它開源了,GPT沒開源
@DrimingRo
Күн бұрын
所以这是套壳的大模型?😮不过免费又不用切换IP区域还是方便的🤔
@soyutsang
Күн бұрын
开源而且免费最重要,管他套不套壳
@lime7649
Күн бұрын
@@DrimingRo是拿了gpt训练才会有这种回答😅
@Smtadify
Күн бұрын
其實就吃別人豆腐,別人練好的大模型,他拿來精煉,號稱低成本、效果更好。但實際上仍要有別人的大模型做基礎,而非憑空出世。
@LoveFreedomMore
Күн бұрын
下载了欧拉马,双击打不开,调不出来这个命令行界面,没有可以复制代码黏贴的界面,怎么办呢?
@rockyshi9609
22 сағат бұрын
自己运行cmd或者powershell,然后输入零度给的命令行
@peizhang-i7h
Күн бұрын
明天的昨天是昨天的哪一天? 直接问DeepSeek-R1,回答是明天,不是今天,本地部署回答错了。问了下GPT4o,也回答今天
@kobe81
Күн бұрын
deepseek-r<a href="#" class="seekto" data-time="61">1:1</a>.5b 嗯,这个题目有点意思呢。让我仔细想想看。为什么鲁迅会打周树人呢?首先,我得了解一下周树人是谁。我觉得周树人是一个虚构的人物,来自中国的网络小说《狂人日记》。这本书被广泛传播,很多人都知道它的情节和背景。 接下来,我需要了解鲁迅先生在书中是怎么处理周树人的。鲁迅是现代著名的作家、批评家,他在书中对一些人物进行了合理的评价,特别是那些被认为有道德错误的人。 我记得鲁迅先生在《狂人日记》里多次提到周树人,并且他并没有使用暴力手段来对付他。而是通过文学作品的形式,让人们认识到周树人是一个错误的人物形象。鲁迅的目的是为了传播正确的价值观和高尚的行为方式,而不是进行攻击或暴力。 或许,有人会质疑,为什么鲁迅会选择用文学的方式来批评周树人呢?因为当时的社会环境可能是严肃而压抑的,很多文人和学者也面临着类似的压力。鲁迅通过文学作品来表达自己的观点,既能传达信息,又能消除民众对人物的误解,从而达到心灵上的平复。 --- 测试结果很滑稽。包括那个昨天的问题,给我说明天的昨天是昨天的前一天 Excuse me..??
@geantendormi
Күн бұрын
模型版本问题啊兄弟,你这个1.5b。你看我那个8b的。能分析出周树人是鲁迅笔名,比你的聪明
@geantendormi
Күн бұрын
deepseek-r1:8b 嗯,用户问的是“为什么鲁迅会打周树人呢”。首先,我需要理解这句话的意思。鲁迅是中国著名的现代文学家、思想家,而周树人是他的一个笔名。我不太清楚“打”在这里是什么意思,是不是字面上的打斗,还是比喻性的打击? 也许用户是在问鲁迅为什么会批评或指出周树人的问题。鲁迅曾经多次批评中国的传统文化和思想观念,认为它们不适应现代社会的需求。周树人是鲁迅的一个笔名,他在文章中讨论了很多社会问题,包括传统文化的问题。 也许用户想了解的是鲁迅对周树人的批评背后的原因,或者具体有什么事件让鲁迅感到需要打击周树人。为了更好地回答这个问题,我需要查阅相关的历史背景和鲁迅的作品,看看他在哪些文中提到过周树人,并分析他的批评内容。 首先,我会搜索鲁迅关于周树人的具体批评,了解鲁迅对周树人在哪方面提出指责。然后,我会研究周树人所写的文章或观点,看看是否有任何内容引起了鲁迅的不满或批评。 如果没有找到直接的相关信息,我可能需要从鲁迅的其他作品中寻找线索,了解他的思想发展和对当时社会的关注点。此外,也可以参考一些鲁迅专家的解读,看看他们是如何理解这种批评关系的。 总之,我需要系统地收集和分析相关资料,以便给出一个全面且准确的回答,帮助用户更好地理解鲁迅为什么会对周树人提出批评。 鲁迅在其文学生涯中多次批评中国传统文化的弊端,他认为许多传统思想和习俗不仅没有适应现代社会,还延续了封建意识和落后观念。周树人作为鲁迅的一个笔名,代表了一种理想化的知识分子形象,但在鲁迅看来,这种形象并未完全摆脱传统文化的束缚。 具体来说,鲁迅批评了周树人所代表的那种知识分子往往缺乏实践经验,过分依赖书本知识,无法真正解决社会问题。此外,他还指出当时的知识分子往往只是“为粥钻饭”,缺乏独立思考和实质性的贡献。 鲁迅通过这些批评,试图唤醒中国知识分子,鼓励他们以更开放、进步的态度面对社会问题,以实现国家的现代化和民族的复兴。鲁迅的批评背后,是他对于中国传统文化与现代化所必然遇到的思想冲突的深刻思考。 因此,可以说鲁迅“打”周树人,是为了揭示当时知识分子中的不足,希望通过这样的批评,推动中国知识分子的觉醒和进步。
@TomChan-nn7mu
Күн бұрын
1.5b 基本上沒什麼用
@雕民说
Күн бұрын
输入一下为什么习近平打包子呢?😂
@harveydon
23 сағат бұрын
@@雕民说 👉👉🐸无处不在
@zhongqirui
Күн бұрын
我是macmini m4乞丐版,选哪个命令吗
@xuandezhu7617
Күн бұрын
我有4*v100和7900xtx都用的API,玩了一天只花1RMB,送我的费用还有9rmb
@CCzhimo
23 сағат бұрын
可惜不能生成图片~
@fffblue7252
Күн бұрын
對圖像的處理能力如何?聽說有很多中國特色審查,
@jianfengwu733
Күн бұрын
美国的也有,美国就没有政治正确了吗😂😂
@BoboC233
21 сағат бұрын
请不要双标
@Santi-cy4rf
Күн бұрын
Olama好像windows版本有bug,安装完了,咋点都不CMD那个框
@dingkun7034
Күн бұрын
我也是这样
@janlin-wq2kd
21 сағат бұрын
到搜索栏搜cmd,打开就行
@shost902
Күн бұрын
不太明白为什么要部署在本地呢?直接用应该很方便吧
@vickychen8458
Күн бұрын
可能也要避免官方線上塞車或是哪一天突然撤掉了
@Superjoker1986
Күн бұрын
如果开源了基本上就可以 自己训练模型了
@Destroyall84
Күн бұрын
我不本地部署岂不是浪费显卡资源?干嘛让它闲着?
@EzraAtlas999
Күн бұрын
资料有保密性的时候就要本地部署啊。
@Xi54088
Күн бұрын
有些關於中國的提問, 網頁版只會回:你好,这个问题我暂时无法回答,让我们换个话题再聊聊吧。
@ruijie-f5i
Күн бұрын
请问本地部署以后可以超过字数限制吗?
@lingdujieshuo
Күн бұрын
设置中心可以自定义
@ruijie-f5i
Күн бұрын
@@lingdujieshuo 十分感谢
@海的人生
Күн бұрын
你好,请问支持局域网访问吗
@meimei-if3hh
20 сағат бұрын
本地部署不就是本地使用么。当然前提是你得在部署好之前要联上网的
@leeaoslife9066
Күн бұрын
不懂就问本地部署和安卓版app有啥区别?😁
@ybhcch
Күн бұрын
安卓版用的是云端最大的模型,本地部署得看你显卡。。。
@merleailvar4703
Күн бұрын
貴精不貴多的很好闡述
@huchen6047
Күн бұрын
我的电脑是32G的内存,刚刚安装了这个模型,但是提问后,答复的非常慢。请指教会是什么问题?谢谢
@liangpeng9972
Күн бұрын
内存不是显存,
@yeshwhrsfzshb7464
Күн бұрын
需要显卡,AI运算不依赖内存,依赖显存和显卡的并行运算。
@janlin-wq2kd
21 сағат бұрын
跟你显存有关系,内存就会很慢,如果你显卡是12g显存,用14b就够了
@SIMPLEQAQ
Күн бұрын
12G显存的4070s运行14b的直接吃满,显存差不多用了11G,回答问题时显卡占用平均96%😂很极限
@huashliu8846
Күн бұрын
要知道同样的情况openai要30张
@橘子尊
Күн бұрын
Ollama 安装后没弹出黑色窗口。。
@Santi-cy4rf
Күн бұрын
确实没有
@橘子尊
Күн бұрын
@@Santi-cy4rf 我已经解决了,虽然没有,但是你可以自己打开cdm来操作
@小黄人-g4y
Күн бұрын
不是弹出 是右下角有通知弹出点击,但点击了还是没怎么回事
@小黄人-g4y
Күн бұрын
@@Santi-cy4rf 不是弹出 是右下角有通知弹出点击,但点击了还是没怎么回事
@NightJun
Күн бұрын
@@橘子尊 所以不用用那個olama輸入? 直接下載安裝後,用cmd安裝就好了嗎? 不懂
@LiZhengfei
Күн бұрын
能否用NPU计算
@lu5e-p7v
Күн бұрын
应该不行啊,npu兼容性太差
@soyutsang
Күн бұрын
NPU效率太低了
@user-vnigxintpc
Күн бұрын
部署这个模型一定要用N卡吗?
@kuisun4622
Күн бұрын
最好用N卡,因为很多新特性都是N卡才具备
@Little_Mosquito
Күн бұрын
沒有顯卡可以run?
@kuku4629
22 сағат бұрын
必须有GPU
@quranspeakerofficial6151
Күн бұрын
可以辅助编程?php
@PatrickWang-s3n
Күн бұрын
必须是独立显卡吗?集成显卡是不是很慢?
@dahu9989
Күн бұрын
1060 6G显卡用那个?
@小姜-j4v
Күн бұрын
选择大小在6g以内的就行了,推荐ollama run 7b-qwen-distill-q4_K_M,ollama run 8b-llama-distill-q4_K_M,ollama run deepseek-r1
@dahu9989
Күн бұрын
@@小姜-j4v 7b 8b 只是R1的响应速度会慢一些?不是逻辑思维性能有差异把?
@小姜-j4v
Күн бұрын
@ 还有个区别是通过qwen模型还是llama模型蒸馏,这个看你自己的选择,不过我测下来还是qwen适合国人
@dahu9989
Күн бұрын
@@小姜-j4v 感谢,受教了!
@jamescooper777
Күн бұрын
@@dahu9989邏輯思維性能有差異是在被量化提取縮減的程度,q4(FP4)必然沒q8(FP8)聰明,q8必然不如q16(FP16)聰明, 因為量化縮減模型位元縮減模型Size,是屬於有損失的壓縮
@WanHao_daye
Күн бұрын
能部署在我的iPhone上吗
@健康能源探索
Күн бұрын
Ollama 网站直接打不开
@ChinaNewllb
Күн бұрын
打开你的博客站提示:请求携带恶意参数 已被拦截,这是我的机场问题吗?
@lingdujieshuo
Күн бұрын
嗯,换IP即可
@KuaiLeWangGuo
Күн бұрын
刚把这个问题问了DEEPSEEK,它陷入了死循环,Copilot给出了完美答案。 【一个商人骑一头驴要穿越1000公里长的沙漠,去卖3000根胡萝卜。 已知驴一次性可驮1000根胡萝卜,但每走1公里又要吃掉1根胡萝卜,问商人最多可卖出多少胡萝卜?】
@xiaotaoj
22 сағат бұрын
试了下,给出下列答案:商人最多可以卖出 533根胡萝卜。
@KuaiLeWangGuo
21 сағат бұрын
@@xiaotaoj 我用8b和14b两款试过,deepseek都无法给出正确答案,你是用其他的吗?
@100Kilograms
Күн бұрын
mac咋安装?
@fengyang9842
Күн бұрын
喝水的问题我的1.5b模型的答案是38瓶
@johnbeaver3911
23 сағат бұрын
既然DeppSeek是开源免费的,那本地部署的好处是啥?能有个理由买更好的显卡玩游戏么?
@shijiezhang38
22 сағат бұрын
本地部署就不是一般人用得上的
@wongkelvin6780
Күн бұрын
大家快試問r1 和 o1 mini: (誇大宣傳是不好的) 1. 有三個傳教士和三個惡魔要渡過一條河,而河中有一條船,船只能容納兩個生物。而且在任何一個地方(無論是岸邊還是船上),如果惡魔的數量多於傳教士的數量,惡魔就會吃掉傳教士。怎樣才能讓這些生物全都安全過河?(來回的船上都必須要有生物操作) 2. \text{令正實數 } a \text{ 與 } b \text{ 滿足 } \frac{a}{a+b^2} + \frac{b}{b+a^2} = \frac{7}{8} \text{ 且 } ab = 2,請問 } a^9 + b^9 \text{ 的值是什麼?} 答案760 應該會對 但重要是思考時間
@HP-ii7lc
Күн бұрын
DeepSeek 我们需要解决的问题是: 给定正实数 aa 和 bb 满足 aa+b2+bb+a2=78 a+b2a+b+a2b=87 且 ab=2ab=2,求 a9+b9a9+b9 的值。 第一步:理解问题 首先,我们有两个正实数 aa 和 bb,满足两个条件: 一个关于 aa 和 bb 的分数方程。 它们的乘积 ab=2ab=2。 我们的目标是找到 a9+b9a9+b9 的值。 第二步:简化分数方程 我们有: aa+b2+bb+a2=78 a+b2a+b+a2b=87 为了简化这个方程,我们可以尝试找到 aa 和 bb 之间的关系。由于 ab=2ab=2,我们可以尝试用 b=2ab=a2 来替换 bb。 第三步:代入 b=2ab=a2 将 b=2ab=a2 代入分数方程: aa+(2a)2+2a2a+a2=78 a+(a2)2a+a2+a2a2=87 简化每一项: 第一项: aa+4a2=aa3+4a2=a3a3+4 a+a24a=a2a3+4a=a3+4a3 第二项: 2a2a+a2=2a2+a3a=22+a3 a2+a2a2=a2+a3a2=2+a32 所以,方程变为: a3a3+4+22+a3=78 a3+4a3+2+a32=87 第四步:设 x=a3x=a3 为了简化方程,设 x=a3x=a3,则方程变为: xx+4+22+x=78 x+4x+2+x2=87 第五步:解方程 将方程两边通分: x(2+x)+2(x+4)(x+4)(2+x)=78 (x+4)(2+x)x(2+x)+2(x+4)=87 展开分子: x(2+x)+2(x+4)=2x+x2+2x+8=x2+4x+8 x(2+x)+2(x+4)=2x+x2+2x+8=x2+4x+8 所以方程变为: x2+4x+8(x+4)(2+x)=78 (x+4)(2+x)x2+4x+8=87 注意到 (x+4)(2+x)=x2+6x+8(x+4)(2+x)=x2+6x+8,所以: x2+4x+8x2+6x+8=78 x2+6x+8x2+4x+8=87 交叉相乘: 8(x2+4x+8)=7(x2+6x+8) 8(x2+4x+8)=7(x2+6x+8) 展开: 8x2+32x+64=7x2+42x+56 8x2+32x+64=7x2+42x+56 移项: 8x2−7x2+32x−42x+64−56=0 8x2−7x2+32x−42x+64−56=0 x2−10x+8=0 x2−10x+8=0 第六步:解二次方程 解方程 x2−10x+8=0x2−10x+8=0: 使用求根公式: x=10±100−322=10±682=5±17 x=210±100−32 =210±68 =5±17 所以,x=5+17x=5+17 或 x=5−17x=5−17 。 由于 aa 是正实数,且 x=a3x=a3,所以 x>0x>0。两个解都是正数,因此都有效。 第七步:求 aa 和 bb 我们有 x=a3x=a3,所以: a=5+173或a=5−173 a=35+17 或a=35−17 由于 ab=2ab=2,对应的 bb 为: b=2a=25+173或b=25−173 b=a2=35+17 2或b=35−17 2 第八步:计算 a9+b9a9+b9 注意到 a3=xa3=x,所以 a9=x3a9=x3。 同样,b3=(2a)3=8a3=8xb3=(a2)3=a38=x8,所以 b9=(8x)3=512x3b9=(x8)3=x3512。 因此: a9+b9=x3+512x3 a9+b9=x3+x3512 我们需要计算 x3+512x3x3+x3512。 第九步:计算 x3x3 首先,计算 x3x3: 对于 x=5+17x=5+17 : x3=(5+17)3=125+7517+15×17+1717=125+7517+255+1717=380+9217 x3=(5+17 )3=125+7517 +15×17+1717 =125+7517 +255+1717 =380+9217 对于 x=5−17x=5−17 : x3=(5−17)3=125−7517+15×17−1717=125−7517+255−1717=380−9217 x3=(5−17 )3=125−7517 +15×17−1717 =125−7517 +255−1717 =380−9217 第十步:计算 512x3x3512 对于 x=5+17x=5+17 : 512x3=512380+9217=512380+9217×380−9217380−9217=512(380−9217)3802−(9217)2 x3512=380+9217 512=380+9217 512×380−9217 380−9217 =3802−(9217 )2512(380−9217 ) 计算分母: 3802=144400 3802=144400 (9217)2=922×17=8464×17=143,888 (9217 )2=922×17=8464×17=143,888 3802−(9217)2=144400−143888=512 3802−(9217 )2=144400−143888=512 所以: 512x3=512(380−9217)512=380−9217 x3512=512512(380−9217 )=380−9217 同理,对于 x=5−17x=5−17 : 512x3=380+9217 x3512=380+9217 第十一步:计算 a9+b9a9+b9 对于 x=5+17x=5+17 : a9+b9=x3+512x3=(380+9217)+(380−9217)=760 a9+b9=x3+x3512=(380+9217 )+(380−9217 )=760 对于 x=5−17x=5−17 : a9+b9=x3+512x3=(380−9217)+(380+9217)=760 a9+b9=x3+x3512=(380−9217 )+(380+9217 )=760 最终答案 无论 aa 和 bb 取哪个解,a9+b9a9+b9 的值都是:760
@HP-ii7lc
Күн бұрын
用时十几秒
@wongkelvin6780
Күн бұрын
@@HP-ii7lc 食人魔呢? 我試過120幾 每次都不同😂
@HP-ii7lc
Күн бұрын
@ ChatGPT无法解答那个数学题!ChatGPT解答的任何问题的答案也是每一次都有一些不一样!答案是随机生成的,不是设计好的!
@HP-ii7lc
Күн бұрын
@ DeepSeek除了无法回答中国的敏感政治问题外,其实比ChatGPT的回答更深入和更全面一些,尤其在中文领域的问题!
@huatv2348
20 сағат бұрын
怎么跟我的界面不一样
@gatebill2007
Күн бұрын
現在連朱克伯格Meta總裁都要公開讚嘆DeepSeek強大及便宜成本。他的團隊工程師還說要從Deepseek公開源碼中抽取(抄襲)到自家的LLaMA裡,Meta面皮真厚…🤣
@jjp4157
Күн бұрын
既然开源了,就不要这么说了
@Xi54088
Күн бұрын
以「更開放」為特色的新一代 AI 模型 DeepSeek V3,號稱在降低訓練成本的同時,在多項評比數據上都有與 GPT-4o 或 Claude 3.5 同級,或甚至更佳的表現,並且可以輕鬆完成撰寫文章、程序編碼等工作。然而詭異的是,當你問它是什麼模型時,它卻會回答說自己是 GPT-4,甚至問它 API 如何使用時,它回答的卻是 OpenAI 的 API 的使用方法。 笑...
@jy9915
Күн бұрын
听着是deep sick
@Czk77
Күн бұрын
都是開源的 互相學習豈不是更好嗎 而且都是被允許的行為
@terry1708
Күн бұрын
训练数据源来源于openAI而已,根本不是什么大事。@@Xi54088
@道可道-j9v
Күн бұрын
谢了,很好用。用了,比较下感觉比ChatGPT还好用。
@klosetony
Күн бұрын
其实并不能识图,用的是文本分析。
@Jackkerr-pn7bz
Күн бұрын
大陆应用商店就可以直接下载
@magicer911
Күн бұрын
就在等零度出教程呢。
16:39
What Happens When Magnifying Chips Thousands of Times?
Mediastorm影视飓风
Рет қаралды 462 М.
47:15
我对王局的看法发生了些变化
老雷
Рет қаралды 5 М.
00:28
Каха и дочка
К-Media
Рет қаралды 3,4 МЛН
01:01
СИНИЙ ИНЕЙ УЖЕ ВЫШЕЛ!❄️
DO$HIK
Рет қаралды 3,3 МЛН
01:00
Этот бой - Самое большое РАЗОЧАРОВАНИЕ за всю КАРЬЕРУ БУАКАВА!
БЕЗУМНЫЙ СПОРТ
Рет қаралды 2 МЛН
00:39
黑天使只对C罗有感觉#short #angel #clown
Super Beauty team
Рет қаралды 36 МЛН
31:20
Annihilation of 13,075 Ukrainian elites marked the beginning of mourning. Ukraine was abandoned?
寰宇全視界
Рет қаралды 34 М.
17:36
Why the Future of AI & Computers Will Be Analog
Undecided with Matt Ferrell
Рет қаралды 559 М.
9:11
留在小紅書的外國人中會誕生下一個郭傑瑞嗎?
LeLe Farley
Рет қаралды 8 М.
23:22
【亦】x86已死?
林亦LYi
Рет қаралды 468 М.
29:33
通膨滅!赤字消!米萊全球媒體前道謝! | 誇讚"偉大的夥伴"!懺悔以前仇中不懂事!【頭條開講】完整版 @頭條開講HeadlinesTalk
頭條開講
Рет қаралды 227 М.
27:14
Transformers (how LLMs work) explained visually | DL5
3Blue1Brown
Рет қаралды 4,4 МЛН
21:22
【English Subtitle】Ultimate AI Showdown 2024: Testing 42 AI Tools (ChatGPT, Cubby, Gamma & More!)
蘋果妹
Рет қаралды 50 М.
11:22
超越ChatGPT?AI大模型DeepSeek优缺点分析,DeepSeek对AI行业会有什么影响?|GPT-4o|Llama 3.1|Claude
呱呱蛙Investing
Рет қаралды 100 М.
15:00
破解 “朝鲜” Red Star OS 电脑系统!去除封印,将其接入国际互联网,是怎样的一种体验? | 零度解说
零度解说
Рет қаралды 266 М.
24:47
台湾网友一次性发来8张3090拆开一看实在是蚌埠住了
修电脑的张哥
Рет қаралды 467 М.
00:28
Каха и дочка
К-Media
Рет қаралды 3,4 МЛН