DeepSeek-R1 最强开源AI大模型!本地部署,完全免费,实力媲美 OpenAI o1 | 零度解说

  Рет қаралды 59,558

零度解说

零度解说

Күн бұрын

Пікірлер: 749
@lingdujieshuo
@lingdujieshuo Күн бұрын
已上传CC字幕💯
@梦里不知身是客一响贪
@梦里不知身是客一响贪 Күн бұрын
自己赞自己,可还行😂
@mudboy117
@mudboy117 Күн бұрын
kimi
@磊哥
@磊哥 Күн бұрын
DeepSeek是完全中国国产的大模型,这家公司在杭州,一共139个工程师和研究人员。只用了50万美元的成本和阉割版的GPU就训练出了这个大模型
@williammartinez8578
@williammartinez8578 Күн бұрын
500万美元,你在视频里说错了。
@antideology
@antideology Күн бұрын
华为孝子转投DeepSeek孝子了吗
@Diablo_S728
@Diablo_S728 Күн бұрын
野生磊哥一只
@千言萬語在心頭
@千言萬語在心頭 Күн бұрын
558万美元,别乱说
@thexiu
@thexiu Күн бұрын
轉人工
@seekthetruth2576
@seekthetruth2576 Күн бұрын
前两天还在想,零度什么时候能聊一下Deepseek R1,今天果然来了
@hasszhao
@hasszhao Күн бұрын
本频道最吸引人的地方是楼主接地气的声线,我真的是冲着这个来了。 不过content也很棒。😆😆😆😆
@Phillipisland168
@Phillipisland168 Күн бұрын
真的好聽❤
@xiaoha798
@xiaoha798 Күн бұрын
这是温州口音吗
@OvOLa
@OvOLa Күн бұрын
废话和卡顿都没有,全是干货
@baptisam206
@baptisam206 22 сағат бұрын
为什么ollama 安装之后打开没有任何反应
@vampirzon
@vampirzon Күн бұрын
零度能不能出一期使用免费的AI模型配合免费在线翻译的插件实现油管视频比较高质量的在线翻译?
@bauglee3005
@bauglee3005 21 сағат бұрын
“沉浸式翻译”,就叫这个名字,是个粉色图标,可以实现傻瓜式视频双语字幕
@KKL-i2l
@KKL-i2l Күн бұрын
我已经实测了4天了,deepseek的代码能力真的不错,对于我来说基本平替了claude3.5,价格太香了。
@weihe2137
@weihe2137 Күн бұрын
为啥免费还要花钱
@eelrepus
@eelrepus 23 сағат бұрын
You 明天的昨天是昨天的那一天? deepseek-r1:1.5b 对不起,我还没有学会回答这个问题。如果你有其他问题,我非常乐意为你提供帮助。
@Taidusb
@Taidusb 23 сағат бұрын
@@weihe2137 API
@kuku4629
@kuku4629 23 сағат бұрын
​@@weihe2137 他不想装本地,想用官方API呗
@gordengan
@gordengan 22 сағат бұрын
@@weihe2137 网页对话不要钱,调API要钱的
@Destroyall84
@Destroyall84 Күн бұрын
另外再请教下,我按教程安装Ollama后已经启动了,但是没有命令行窗口,看本视频是直接点击后台图标就弹出了,可是我点击就会跳到一个文件夹,里面只有两个文本文件和一个json后缀的文件,难道是我哪里没操作对吗?
@WendiHou
@WendiHou Күн бұрын
命令行窗口 输入ollama list。然后把模型的名称复制一下。输入ollama run (模型)
@Kalman_168
@Kalman_168 Күн бұрын
同上,请问怎么解决呢?
@Alsoallerdings
@Alsoallerdings Күн бұрын
在安装目录下启动cmd然后输入ollama
@heHhh-y9p
@heHhh-y9p Күн бұрын
win+r健,输入cmd,回车,然后直接复制粘贴视频里的对应的安装目录的内容就行了
@Destroyall84
@Destroyall84 21 сағат бұрын
@@Kalman_168 还没解决,我删掉了,还是用云端算了。
@DHZ168
@DHZ168 Күн бұрын
有些比較燒腦的程式邏輯OpenAI會像鬼打牆一樣繞不出去,同樣的問題拿去問DeepSeek卻能解開,真是太神奇了!
@paulxie1716
@paulxie1716 Күн бұрын
中国人智商南玻万,这还有疑问?
@eelrepus
@eelrepus 23 сағат бұрын
You 明天的昨天是昨天的那一天? deepseek-r1:1.5b 对不起,我还没有学会回答这个问题。如果你有其他问题,我非常乐意为你提供帮助。
@errof253
@errof253 23 сағат бұрын
@@eelrepus1.5b就算了😂,甚至还是4bit量化
@kuku4629
@kuku4629 23 сағат бұрын
​@@eelrepus 试着升级下电脑换个好点的GPU吧。
@PadWood-123
@PadWood-123 21 сағат бұрын
字打错了,应该用“哪”。
@101worlds
@101worlds Күн бұрын
請問本地部屬介面只能上傳圖片,不能上傳代碼提供R1修改編輯嗎?
@PengfeiT
@PengfeiT Күн бұрын
头型真心不错啊👍
@alexlei7059
@alexlei7059 Күн бұрын
你好, 可以请问安装好了,20g显存 。 不过反应速度很慢呢。 ollama-server cpu占用很高
@alexlei7059
@alexlei7059 Күн бұрын
你好, 可以请问安装好了,20g显存 。 不过反应速度很慢呢
@fangyinzhang8768
@fangyinzhang8768 Күн бұрын
多谢分享!请教两个问题:(1) 我用的是 AMD Radeon RX 7600 XT 的显卡,Ubuntu 24.04 LTS, 你的博客提供的Ollama 安装脚本安装结束后显示 “ NVIDIA GPU installed", 这会影响Ollama 和DeepSeek 运行吗?(2) 运行 “ollama run deepseek-r<a href="#" class="seekto" data-time="74">1:14</a>b” 后,最后显示 "writing manifest", "success", "Error: llama runner process has terminated: signal: illegal instruction (core dumped)". 请问如何解决这个问题? 谢谢!
@fangyinzhang8768
@fangyinzhang8768 Күн бұрын
好像是 CPU does not support AVX512
@jikeluotang
@jikeluotang 20 сағат бұрын
我想问下 为什么要本地部署啊? 不能直接用联网的吗?
@熊出没-u5b
@熊出没-u5b 22 сағат бұрын
这个不是直接访问网站就可以使用吗?意思是可以不联网脱机状态下使用?还是部署了以后可以无限制使用深度思考模式啊??
@xiaotaoj
@xiaotaoj 22 сағат бұрын
网站关了,你就用不了 本地部署后,就算网站关了,你也可以用
@熊出没-u5b
@熊出没-u5b 21 сағат бұрын
@@xiaotaoj 部署本地后,脱机和联网都可以用是吗?
@akio1366
@akio1366 Күн бұрын
我之前一直在用4o+01,还有3.5的sonnet(配合提示次优化的版本),然后对于所谓的天天挑战chatgpt的模型很不屑,但r1这么大音量又免费就去试了试,发现生成的内容确实有惊喜,如果答案不满意可以多生成几次,反正他网页端免费,有时候确实会有很高质量的另类深度回答。
@SamSunBJ
@SamSunBJ Күн бұрын
你好,选择联网时候显示Ollama call failed with status code 403:是什么情况,怎么解决?
@lingdujieshuo
@lingdujieshuo Күн бұрын
connect to Ollama :127.0.0.1:11434 改成 localhost:11434 试试
@adamsmith5735
@adamsmith5735 Күн бұрын
为什么不用LM Studio
@lingdujieshuo
@lingdujieshuo Күн бұрын
LM Studio 稳定性不行
@sevenaac4783
@sevenaac4783 Күн бұрын
真的是簡潔又實用❤
@eelrepus
@eelrepus 23 сағат бұрын
You 明天的昨天是昨天的那一天? deepseek-r1:1.5b 对不起,我还没有学会回答这个问题。如果你有其他问题,我非常乐意为你提供帮助。
@mwp-yy9xb
@mwp-yy9xb 21 сағат бұрын
哇趣,deepseek不支持arc显卡吗?直接拿我的破i3硬生生跑起来了
@user-fq9hx2fx3e
@user-fq9hx2fx3e 20 сағат бұрын
可以上传文档吗?我没有找到上传入口
@Some0ne...
@Some0ne... Күн бұрын
最後那些問題很不錯
@KuaiLeWangGuo
@KuaiLeWangGuo Күн бұрын
同样这道题:【1块钱一瓶可乐,用两个空瓶可以再换一瓶可乐,假设你只有20元钱,最多可以喝到几瓶可乐?】 我安装的deepseek给出的答案是: 要解决这个问题,我们需要理解可乐瓶的兑换机制和预算分配。以下是详细的步骤解释: 初始购买:用20元购买可乐瓶,每瓶可乐的价格为1元,因此最初可以购买20瓶可乐。 第一次兑换:使用20瓶可乐,兑换2瓶新的可乐瓶。剩下的可乐瓶数量为20 - 20 = 0瓶,但获得了2瓶新可乐瓶。 第二次兑换:现在有2瓶可乐,可以再次兑换1瓶可乐瓶。此时,总共有2 - 2 = 0瓶旧可乐瓶,获得了1瓶新的可乐瓶。 后续兑换:每兑换一次,需要2瓶旧可乐瓶,换得1瓶新可乐瓶。因此,每次兑换都会减少1瓶旧可乐瓶,而总数保持为1瓶。 通过上述步骤,可以看出: 初始购买:20瓶 第一次兑换:20 - 20 + 2 = 2瓶 第二次兑换:2 - 2 + 1 = 1瓶 以后每次兑换都保持1瓶 因此,最多可以喝到 21瓶 可乐。
@KuaiLeWangGuo
@KuaiLeWangGuo Күн бұрын
换了跟零度一样的【ollama run deepseek-r1:14b】模型来计算这题: 嗯,这个问题看起来有点有趣。让我先仔细读一遍题目: “1块钱一瓶可乐,用两个空瓶可以再换一瓶可乐,假设你只有20元钱,最多可以喝到几瓶可乐?” 好,首先,我有20元钱,每瓶可乐1元,所以我一开始可以用这20元买20瓶可乐。这是我的初始购买量。 接下来,题目说用两个空瓶可以换一瓶新的可乐。这意味着每喝完一瓶可乐后,我就有了一个空瓶,但需要两个空瓶才能兑换一瓶新的可乐。 那么,我应该如何利用这些空瓶来获得更多的可乐呢? 让我一步一步地分析: 初始购买:20元钱,可以买20瓶可乐。这20瓶喝完后,我有20个空瓶。 第一次兑换: 用20个空瓶,每两个换一瓶新的可乐。 所以,20 ÷ 2 = 10瓶新可乐。 现在,我喝了这10瓶后,又有10个空瓶。 第二次兑换: 再用10个空瓶换5瓶新的可乐(因为10 ÷ 2 = 5)。 喝了这5瓶后,又有了5个空瓶。 第三次兑换: 用5个空瓶,每两个换一瓶,可以换2瓶新的可乐(因为5 ÷ 2 = 2余1)。 喝了这2瓶后,又有2个空瓶,加上之前剩下的1个空瓶,总共有3个空瓶。 第四次兑换: 现在有3个空瓶,可以再用两个换一瓶新的可乐(3 ÷ 2 = 1余1)。 喝了这1瓶后,又有1个空瓶,加上之前剩下的1个空瓶,总共有2个空瓶。 第五次兑换: 再用这两个空瓶换一瓶新的可乐。 喝了这瓶后,又有一个空瓶,但只剩一个空瓶,无法再进行兑换。 现在,我来统计一下总共喝了多少瓶: 初始购买:20瓶 第一次兑换:10瓶 第二次兑换:5瓶 第三次兑换:2瓶 第四次兑换:1瓶 第五次兑换:1瓶 总和为20 + 10 + 5 + 2 + 1 + 1 = 39瓶 但是,我觉得哪里好像不对,因为我每次喝完可乐都会得到空瓶,可以继续用来兑换新的可乐,理论上可能会有更多。 让我再仔细算一次: 初始购买:20瓶,花费20元。 喝了20瓶后,有20个空瓶。 第一次兑换: 用20个空瓶换10瓶新的可乐(因为每2个空瓶换1瓶)。 花费为0元,因为已经用完预算。 喝了这10瓶后,又有10个空瓶。 第二次兑换: 用10个空瓶换5瓶新的可乐。 喝了5瓶后,有5个空瓶。 第三次兑换: 用5个空瓶换2瓶新的可乐(因为每2个空瓶换1瓶)。 喝了2瓶后,又有2个空瓶。 第四次兑换: 用2个空瓶换1瓶新的可乐。 喝了1瓶后,有1个空瓶。 第五次兑换: 现在只有一个空瓶,无法再进行兑换。 因此,这次的总和是: 初始购买:20瓶 第一次兑换:10瓶 第二次兑换:5瓶 第三次兑换:2瓶 第四次兑换:1瓶 总共是20 + 10 + 5 + 2 + 1 = 38瓶 看起来我第一次计算多算了一瓶。其实,在第四次兑换后,只有1个空瓶,无法再兑换新的可乐。 不过,我有点困惑,因为根据一些类似的题目,最终答案应该是39瓶。可能我的计算过程中哪里出错了。 让我再仔细检查一下: 初始购买:20瓶 第一次兑换:用20空瓶换10瓶,喝了10瓶后有10个空瓶。 第二次兑换:用10空瓶换5瓶,喝了5瓶后有5个空瓶。 第三次兑换:用5空瓶换2瓶(因为每2个换1瓶),喝了2瓶后有2个空瓶。 第四次兑换:用2空瓶换1瓶,喝了1瓶后有1个空瓶。 第五次兑换:现在只有一个空瓶,无法再进行兑换。 总结一下: 初始购买:20瓶 第一次兑换:10瓶 第二次兑换:5瓶 第三次兑换:2瓶 第四次兑换:1瓶 总共喝了 38瓶 可乐。 然而,根据一些类似的问题,最终答案通常是 39瓶。这可能是因为在某些计算中,最后的空瓶可以累计起来继续兑换,或者我的计算过程中有遗漏。为了确保准确性,我会再仔细检查一次: 初始购买:20瓶 喝完后,有20个空瓶。 第一次兑换: 用20个空瓶换10瓶。 喝完后,有10个空瓶。 第二次兑换: 用10个空瓶换5瓶。 喝完后,有5个空瓶。 第三次兑换: 用5个空瓶换2瓶(因为每2个换1瓶)。 喝完后,有2个空瓶。 第四次兑换: 用2个空瓶换1瓶。 喝完后,有1个空瓶。 第五次兑换: 现在只有一个空瓶,无法再进行兑换。 总计:20 + 10 + 5 + 2 + 1 = 38瓶 看起来我的计算是正确的,最终答案应该是 38瓶。
@Zj-Aka
@Zj-Aka 20 сағат бұрын
​@@KuaiLeWangGuo我让它计算是39瓶。
@pinyiu
@pinyiu Күн бұрын
本地部署後是不是沒了深度思考跟聯網搜尋的功能?
@PandaPulse-z7b
@PandaPulse-z7b Күн бұрын
本地使用大概只有深度思考模式,我是去网站直接用,大多数普通人的购买建议必须需要互联网搜索
@lingdujieshuo
@lingdujieshuo Күн бұрын
@@PandaPulse-z7b 视频里演示的本地部署自带网络搜索功能
@luodike3343
@luodike3343 Күн бұрын
本地部署后可以和cline,continue这些vscode的插件对接吗
@brookssong4437
@brookssong4437 Күн бұрын
我猜测可以的,虽然我暂时没使用过deepseek,但是我用ollama+qwen没问题。例如continue,选择更改配置,它会打开config.json,在models和tabAutocompleteModel里,模仿现有的配置,增加ollama+deepseek的配置即可。例如:{"title":"xxxx", ”model":"deepseek-you-downloaded","provider":"ollama"}。
@kerrywj8151
@kerrywj8151 Күн бұрын
直接用APP和本地部署有啥区别呢
@nganwong-ub2je
@nganwong-ub2je Күн бұрын
深度求索(中文:深度求索;拼音:Shēndù Qiúsuǒ)是一家開發開源大型語言模型的中國人工智慧公司。該公司由中國對沖基金 High-Flyer 獨家資助。DeepSeek 和 High-Flyer 都位於浙江杭州。
@KeiKei903
@KeiKei903 Күн бұрын
这次比 0 D 快了点,已经玩了8B了,要她写点爱情小说,还是很湿的 ~~~ 下次是否讲讲如果用R1 本地部署自建的知识库 ~~~ 虽然网上有,但 0 D 发布,永远是安全和品质的保证 ~~~
@gabrieljoseph6060
@gabrieljoseph6060 Күн бұрын
0d是啥
@brandtlai1247
@brandtlai1247 Күн бұрын
@@gabrieljoseph6060po主叫零度
@qa2q616
@qa2q616 Күн бұрын
@@gabrieljoseph6060 0d=零度解说?
@rockyshi9609
@rockyshi9609 Күн бұрын
6g显存的移动版3060能玩哪个版本。。。
@ruijie-f5i
@ruijie-f5i Күн бұрын
@@rockyshi9609 7B?你自己可以试一试
@fpw6666
@fpw6666 Күн бұрын
请问博客里面给出的下载链接是DeepSeek-R1-Distill 模型吗?
@lingdujieshuo
@lingdujieshuo Күн бұрын
嗯,博客上已经提供手动下载链接
@SexyGirls-v9f
@SexyGirls-v9f Күн бұрын
能不能出一期ComfyUI照片跳舞教程
@vergilkira5979
@vergilkira5979 Күн бұрын
本地部署和在官网使用有什么不同吗?
@思思Sicily
@思思Sicily Күн бұрын
信息安全性不同哦
@晨杨-q2f
@晨杨-q2f Күн бұрын
官网是满血模型 算力足够更智能 自己部署可以更隐私也可以自己微调 让它更涩涩或者哪方面更专业 但吃硬件
@小和尚-s1q
@小和尚-s1q 21 сағат бұрын
链接在哪里
@Michael-sc7yt
@Michael-sc7yt Күн бұрын
macmini 4 集成显卡性能够装哪个模型啊。。。。。好像装不了吧😂
@rockyshi9609
@rockyshi9609 22 сағат бұрын
你可以直接去问deepseek啊,我也是不清楚6g显存能用哪个版本,问了ai他告诉我了
@peterlin2113
@peterlin2113 22 сағат бұрын
可以幫忙問一下A股該買還是該賣?
@Alex-ji3me
@Alex-ji3me 22 сағат бұрын
😂
@angy9730
@angy9730 Күн бұрын
播主是4090显卡吗?我的7900xtx,虽然也是24g显存,但部署14b,运行非常慢,显卡直接飙到100%,显存倒是只占用几个G而已。
@fffblue7252
@fffblue7252 Күн бұрын
相信不支持AMD的顯卡,只是在調用CPU
@shijiezhang38
@shijiezhang38 23 сағат бұрын
N卡有cuda核心专门负责ai运算,A卡只能硬算,效率低非常多
@alanshown4331
@alanshown4331 Күн бұрын
和claude3.5sone比谁测试评分高
@lihuanzhao
@lihuanzhao Күн бұрын
零度哥,A卡也是一样的安装吗?
@PandaPulse-z7b
@PandaPulse-z7b Күн бұрын
你可以试试,昨天看了新闻,deepseek和amd有合作了
@lml2270
@lml2270 Күн бұрын
我安装了Ollama之后无法打开对应的终端呢?
@baptisam206
@baptisam206 22 сағат бұрын
我也是没有跳出终端界面
@rockyshi9609
@rockyshi9609 22 сағат бұрын
直接自己打开命令行终端就行,cmd或者powershell
@mccoywang6671
@mccoywang6671 Күн бұрын
如果本地布置是不是速度快一点?
@tobiichioriguchi
@tobiichioriguchi Күн бұрын
官网快 (如果你的显卡是H100, A100那些, 那当我没说) 而且官网直接聊天是免费的, api要钱, 但是也不贵, 白菜价
@lingdujieshuo
@lingdujieshuo Күн бұрын
取决你的显卡性能,视频里有说明选择,只要是在GPU性能范围内,本地都非常快
@青椒肉丝-q4w
@青椒肉丝-q4w 20 сағат бұрын
请问 不用了的话怎么卸载呢
@Doomgamezj
@Doomgamezj 23 сағат бұрын
零度大佬 如果不想用ollama run deepseek-r<a href="#" class="seekto" data-time="67">1:7</a>0b 怎么删除?
@kunliu7827
@kunliu7827 Күн бұрын
本地部署,要求机器配置这么高哦。现在连当年的 P50机型,都跟不上了啊
@xutao6633
@xutao6633 Күн бұрын
南北向火车人群分流问题,回答出现无限循环,1.5B和7B大模型都是这个情况。
@阿斯顿法国红酒快-t9l
@阿斯顿法国红酒快-t9l Күн бұрын
为何没有与llama3的对比?开源模型的直接竞争对手不是llama3吗?特别是在70b及以下的规模上。
@Mega5035
@Mega5035 Күн бұрын
llama3连o1都赶不上吧(甚至不如GPT4),有什么好比的。。。😂
@阿斯顿法国红酒快-t9l
@阿斯顿法国红酒快-t9l Күн бұрын
@ 不见得,因为个人用户基本只能用到70b模型。
@lingdujieshuo
@lingdujieshuo Күн бұрын
DeepSeek-R1 对标的是OpenAI o1模型,llama3 目前没法跟它比
@superjun2534
@superjun2534 Күн бұрын
如何把它们装在其他盘里?这个困扰了好久
@lingdujieshuo
@lingdujieshuo Күн бұрын
把 Ollama 安装到其它盘上即可 ,在CMD下可以指定盘符
@胖丁2025
@胖丁2025 22 сағат бұрын
@@lingdujieshuo 能不能详细说一下怎么安装到d盘呀
@weihe2137
@weihe2137 Күн бұрын
本地版和网络版得优缺点是啥
@gabrieljoseph6060
@gabrieljoseph6060 Күн бұрын
问他strawberry 里面有几个r,回答依然是两个
@social-investigation
@social-investigation Күн бұрын
我的回答是这个:在单词 **strawberry** 中,字母 **r** 出现的次数为 **3 次**。具体分布如下: 1. **s** 2. **t** 3. **r**(第一个 r) 4. **a** 5. **w** 6. **b** 7. **e** 8. **r**(第二个 r) 9. **r**(第三个 r) 10. **y** 拼写结构为 **s-t-r-a-w-b-e-r-r-y**,其中 **straw** 部分含 1 个 r,**berry** 部分含 2 个 r。因此,总共有 **3 个 r**。
@linfan
@linfan Күн бұрын
我开了深度搜索发现没问题呀
@小脑斧っc
@小脑斧っc Күн бұрын
刚刚试了,回答3个
@Ricky-ql9jh
@Ricky-ql9jh Күн бұрын
有支援amd或用cpu跑的嗎?
@jamescooper777
@jamescooper777 Күн бұрын
像Ollama 這類「執行模型推論」的介面程式平台,它直接執行預設就是用CPU上面跑,for Intel 、AMD、Apple M 都有, 要想利用顯卡加速,是要設定顯卡的驅動程式和安裝顯卡提供的AI 運算框架與函式 模型本身和能不能在哪種硬體上面跑並沒有絲毫關係。
@WendiHou
@WendiHou Күн бұрын
你没用支持amd的那个版本的话,它识别不出来你的amd显卡会直接用cpu运行。
@退保平
@退保平 Күн бұрын
博主用的是R1 还是V3?
@lingdujieshuo
@lingdujieshuo Күн бұрын
R1
@SusBonTan
@SusBonTan 20 сағат бұрын
你一直都在用V3,R1只有深度思考,你不开深度思考这个功能那个就不是R1是V3​@@lingdujieshuo
@ynm7851
@ynm7851 Күн бұрын
请问m4的mac推荐哪个版本呀?
@fpw6666
@fpw6666 Күн бұрын
内存大的
@仁-g7r
@仁-g7r Күн бұрын
這個開源模型,真的是目前開源最強,最經濟實惠的!真的很棒! OpenAI什麼時候要改名??
@Outman9527
@Outman9527 Күн бұрын
本地部署是不是必须需要好的硬件?
@无能狂怒-n4z
@无能狂怒-n4z Күн бұрын
4090
@jamescooper777
@jamescooper777 Күн бұрын
相同參數量的一個模型名稱,硬件顯存愈大,能載入量化愈少、Size愈大的檔案,回答內容就會愈聰明, 相同的一個模型檔案,硬件性能愈好的,等候它開始回答的時間就愈短,它回應時吐出的字數就愈快
@ching5614
@ching5614 Күн бұрын
何時要開箱5090
@Quicknowl
@Quicknowl Күн бұрын
有没有没有审查限制的,越狱的。比较强的模型
@doctorywhy8955
@doctorywhy8955 Күн бұрын
据说Mistral模型没有限制
@豌豆豌豆-b4d
@豌豆豌豆-b4d Күн бұрын
部署了32B,前面部署的5,7B要删除吗?占电脑空间吗?
@Destroyall84
@Destroyall84 Күн бұрын
请问我的4080S显卡用哪个版本比较合适?
@坏猫-b8g
@坏猫-b8g Күн бұрын
信我的。直接llama 3.2 v ,别用中国造的骗补垃圾AI🤣
@Beagle5ce
@Beagle5ce Күн бұрын
只能用4bit量化版, 16GB显存不够运行更大版本的.
@Destroyall84
@Destroyall84 Күн бұрын
@@Beagle5ce 好的,感谢回答,这点N卡就是显存和位宽给的太抠了,A卡显存和位宽给的大方但是没CUDA,不知道能不能跑本地。
@Beagle5ce
@Beagle5ce Күн бұрын
@@Destroyall84 A卡好像是有转义的插件,不过实际效果不太好,打折扣了。 这也是为什么N卡能这么抠的原因了😂
@songeric8244
@songeric8244 Күн бұрын
请教一下,我amd8845可以部署吗?部署哪个级别的模型?
@WendiHou
@WendiHou Күн бұрын
我觉得极限就是1.5b了。在往上好像就7b了。
@cjchengnz
@cjchengnz Күн бұрын
我給了這題數學難題,但DeepSeek卻給我錯誤答案,儘管我曾多次暗示與引導,它仍然堅持己見,始終給我錯的答案70% (正確答案為75 %) 一次測驗共五題, 第一至五題的答對率分別為88%,91%,85%,86%,60%。 答對三題(含)以上者為及格。則本測驗及格率至少為多少?
@yeshwhrsfzshb7464
@yeshwhrsfzshb7464 Күн бұрын
没有100%正确的模型。 也可以找到deepseek回答正确,但chatgpt回答错误的例子。
@yiwt-q4k
@yiwt-q4k Күн бұрын
我是小白,请问这个对于中学生来说有什么用?可以具体举个例吗?谢谢大神们
@玩意儿别急啊逆天
@玩意儿别急啊逆天 Күн бұрын
本地部署,喂黄色语料,然后狠狠地撂荒😠😠😠
@天才易
@天才易 22 сағат бұрын
中学生尽量还是别接触这种 😂省得什么寒假作业,暑假作业都靠他来完成
@Michael-sc7yt
@Michael-sc7yt Күн бұрын
安装后不要了怎么删除啊?
@magicer911
@magicer911 Күн бұрын
4070s能用14b的模型吗?
@lingdujieshuo
@lingdujieshuo Күн бұрын
可以,但是稍微有点吃紧
@magicer911
@magicer911 23 сағат бұрын
@@lingdujieshuo 谢谢,已经在用了,目前一切正常。
@AMDchan
@AMDchan Күн бұрын
Mac mini 32gb可以用吗?建议是用什么版本呢
@rockyshi9609
@rockyshi9609 22 сағат бұрын
你可以直接问DeepSeek啊,就说我是macmini,想用你的本地部署,你告诉我应该用哪个版本
@AATV-GJ
@AATV-GJ 21 сағат бұрын
如何部署 deepseek coder 啊
@freewind8465
@freewind8465 Күн бұрын
自从出现 deepseek回答自己是gpt的翻车事件后 现在只要一问他关于deepseek的问题 包括如何微调 多少参数都变成了 统一回复: 请自己看文档😂😂😂
@arsdrf
@arsdrf Күн бұрын
至少它開源了,GPT沒開源
@DrimingRo
@DrimingRo Күн бұрын
所以这是套壳的大模型?😮不过免费又不用切换IP区域还是方便的🤔
@soyutsang
@soyutsang Күн бұрын
开源而且免费最重要,管他套不套壳
@lime7649
@lime7649 Күн бұрын
@@DrimingRo是拿了gpt训练才会有这种回答😅
@Smtadify
@Smtadify Күн бұрын
其實就吃別人豆腐,別人練好的大模型,他拿來精煉,號稱低成本、效果更好。但實際上仍要有別人的大模型做基礎,而非憑空出世。
@LoveFreedomMore
@LoveFreedomMore Күн бұрын
下载了欧拉马,双击打不开,调不出来这个命令行界面,没有可以复制代码黏贴的界面,怎么办呢?
@rockyshi9609
@rockyshi9609 22 сағат бұрын
自己运行cmd或者powershell,然后输入零度给的命令行
@peizhang-i7h
@peizhang-i7h Күн бұрын
明天的昨天是昨天的哪一天? 直接问DeepSeek-R1,回答是明天,不是今天,本地部署回答错了。问了下GPT4o,也回答今天
@kobe81
@kobe81 Күн бұрын
deepseek-r<a href="#" class="seekto" data-time="61">1:1</a>.5b 嗯,这个题目有点意思呢。让我仔细想想看。为什么鲁迅会打周树人呢?首先,我得了解一下周树人是谁。我觉得周树人是一个虚构的人物,来自中国的网络小说《狂人日记》。这本书被广泛传播,很多人都知道它的情节和背景。 接下来,我需要了解鲁迅先生在书中是怎么处理周树人的。鲁迅是现代著名的作家、批评家,他在书中对一些人物进行了合理的评价,特别是那些被认为有道德错误的人。 我记得鲁迅先生在《狂人日记》里多次提到周树人,并且他并没有使用暴力手段来对付他。而是通过文学作品的形式,让人们认识到周树人是一个错误的人物形象。鲁迅的目的是为了传播正确的价值观和高尚的行为方式,而不是进行攻击或暴力。 或许,有人会质疑,为什么鲁迅会选择用文学的方式来批评周树人呢?因为当时的社会环境可能是严肃而压抑的,很多文人和学者也面临着类似的压力。鲁迅通过文学作品来表达自己的观点,既能传达信息,又能消除民众对人物的误解,从而达到心灵上的平复。 --- 测试结果很滑稽。包括那个昨天的问题,给我说明天的昨天是昨天的前一天 Excuse me..??
@geantendormi
@geantendormi Күн бұрын
模型版本问题啊兄弟,你这个1.5b。你看我那个8b的。能分析出周树人是鲁迅笔名,比你的聪明
@geantendormi
@geantendormi Күн бұрын
deepseek-r1:8b 嗯,用户问的是“为什么鲁迅会打周树人呢”。首先,我需要理解这句话的意思。鲁迅是中国著名的现代文学家、思想家,而周树人是他的一个笔名。我不太清楚“打”在这里是什么意思,是不是字面上的打斗,还是比喻性的打击? 也许用户是在问鲁迅为什么会批评或指出周树人的问题。鲁迅曾经多次批评中国的传统文化和思想观念,认为它们不适应现代社会的需求。周树人是鲁迅的一个笔名,他在文章中讨论了很多社会问题,包括传统文化的问题。 也许用户想了解的是鲁迅对周树人的批评背后的原因,或者具体有什么事件让鲁迅感到需要打击周树人。为了更好地回答这个问题,我需要查阅相关的历史背景和鲁迅的作品,看看他在哪些文中提到过周树人,并分析他的批评内容。 首先,我会搜索鲁迅关于周树人的具体批评,了解鲁迅对周树人在哪方面提出指责。然后,我会研究周树人所写的文章或观点,看看是否有任何内容引起了鲁迅的不满或批评。 如果没有找到直接的相关信息,我可能需要从鲁迅的其他作品中寻找线索,了解他的思想发展和对当时社会的关注点。此外,也可以参考一些鲁迅专家的解读,看看他们是如何理解这种批评关系的。 总之,我需要系统地收集和分析相关资料,以便给出一个全面且准确的回答,帮助用户更好地理解鲁迅为什么会对周树人提出批评。 鲁迅在其文学生涯中多次批评中国传统文化的弊端,他认为许多传统思想和习俗不仅没有适应现代社会,还延续了封建意识和落后观念。周树人作为鲁迅的一个笔名,代表了一种理想化的知识分子形象,但在鲁迅看来,这种形象并未完全摆脱传统文化的束缚。 具体来说,鲁迅批评了周树人所代表的那种知识分子往往缺乏实践经验,过分依赖书本知识,无法真正解决社会问题。此外,他还指出当时的知识分子往往只是“为粥钻饭”,缺乏独立思考和实质性的贡献。 鲁迅通过这些批评,试图唤醒中国知识分子,鼓励他们以更开放、进步的态度面对社会问题,以实现国家的现代化和民族的复兴。鲁迅的批评背后,是他对于中国传统文化与现代化所必然遇到的思想冲突的深刻思考。 因此,可以说鲁迅“打”周树人,是为了揭示当时知识分子中的不足,希望通过这样的批评,推动中国知识分子的觉醒和进步。
@TomChan-nn7mu
@TomChan-nn7mu Күн бұрын
1.5b 基本上沒什麼用
@雕民说
@雕民说 Күн бұрын
输入一下为什么习近平打包子呢?😂
@harveydon
@harveydon 23 сағат бұрын
@@雕民说 👉👉🐸无处不在
@zhongqirui
@zhongqirui Күн бұрын
我是macmini m4乞丐版,选哪个命令吗
@xuandezhu7617
@xuandezhu7617 Күн бұрын
我有4*v100和7900xtx都用的API,玩了一天只花1RMB,送我的费用还有9rmb
@CCzhimo
@CCzhimo 23 сағат бұрын
可惜不能生成图片~
@fffblue7252
@fffblue7252 Күн бұрын
對圖像的處理能力如何?聽說有很多中國特色審查,
@jianfengwu733
@jianfengwu733 Күн бұрын
美国的也有,美国就没有政治正确了吗😂😂
@BoboC233
@BoboC233 21 сағат бұрын
请不要双标
@Santi-cy4rf
@Santi-cy4rf Күн бұрын
Olama好像windows版本有bug,安装完了,咋点都不CMD那个框
@dingkun7034
@dingkun7034 Күн бұрын
我也是这样
@janlin-wq2kd
@janlin-wq2kd 21 сағат бұрын
到搜索栏搜cmd,打开就行
@shost902
@shost902 Күн бұрын
不太明白为什么要部署在本地呢?直接用应该很方便吧
@vickychen8458
@vickychen8458 Күн бұрын
可能也要避免官方線上塞車或是哪一天突然撤掉了
@Superjoker1986
@Superjoker1986 Күн бұрын
如果开源了基本上就可以 自己训练模型了
@Destroyall84
@Destroyall84 Күн бұрын
我不本地部署岂不是浪费显卡资源?干嘛让它闲着?
@EzraAtlas999
@EzraAtlas999 Күн бұрын
资料有保密性的时候就要本地部署啊。
@Xi54088
@Xi54088 Күн бұрын
有些關於中國的提問, 網頁版只會回:你好,这个问题我暂时无法回答,让我们换个话题再聊聊吧。
@ruijie-f5i
@ruijie-f5i Күн бұрын
请问本地部署以后可以超过字数限制吗?
@lingdujieshuo
@lingdujieshuo Күн бұрын
设置中心可以自定义
@ruijie-f5i
@ruijie-f5i Күн бұрын
@@lingdujieshuo 十分感谢
@海的人生
@海的人生 Күн бұрын
你好,请问支持局域网访问吗
@meimei-if3hh
@meimei-if3hh 20 сағат бұрын
本地部署不就是本地使用么。当然前提是你得在部署好之前要联上网的
@leeaoslife9066
@leeaoslife9066 Күн бұрын
不懂就问本地部署和安卓版app有啥区别?😁
@ybhcch
@ybhcch Күн бұрын
安卓版用的是云端最大的模型,本地部署得看你显卡。。。
@merleailvar4703
@merleailvar4703 Күн бұрын
貴精不貴多的很好闡述
@huchen6047
@huchen6047 Күн бұрын
我的电脑是32G的内存,刚刚安装了这个模型,但是提问后,答复的非常慢。请指教会是什么问题?谢谢
@liangpeng9972
@liangpeng9972 Күн бұрын
内存不是显存,
@yeshwhrsfzshb7464
@yeshwhrsfzshb7464 Күн бұрын
需要显卡,AI运算不依赖内存,依赖显存和显卡的并行运算。
@janlin-wq2kd
@janlin-wq2kd 21 сағат бұрын
跟你显存有关系,内存就会很慢,如果你显卡是12g显存,用14b就够了
@SIMPLEQAQ
@SIMPLEQAQ Күн бұрын
12G显存的4070s运行14b的直接吃满,显存差不多用了11G,回答问题时显卡占用平均96%😂很极限
@huashliu8846
@huashliu8846 Күн бұрын
要知道同样的情况openai要30张
@橘子尊
@橘子尊 Күн бұрын
Ollama 安装后没弹出黑色窗口。。
@Santi-cy4rf
@Santi-cy4rf Күн бұрын
确实没有
@橘子尊
@橘子尊 Күн бұрын
@@Santi-cy4rf 我已经解决了,虽然没有,但是你可以自己打开cdm来操作
@小黄人-g4y
@小黄人-g4y Күн бұрын
不是弹出 是右下角有通知弹出点击,但点击了还是没怎么回事
@小黄人-g4y
@小黄人-g4y Күн бұрын
@@Santi-cy4rf 不是弹出 是右下角有通知弹出点击,但点击了还是没怎么回事
@NightJun
@NightJun Күн бұрын
@@橘子尊 所以不用用那個olama輸入? 直接下載安裝後,用cmd安裝就好了嗎? 不懂
@LiZhengfei
@LiZhengfei Күн бұрын
能否用NPU计算
@lu5e-p7v
@lu5e-p7v Күн бұрын
应该不行啊,npu兼容性太差
@soyutsang
@soyutsang Күн бұрын
NPU效率太低了
@user-vnigxintpc
@user-vnigxintpc Күн бұрын
部署这个模型一定要用N卡吗?
@kuisun4622
@kuisun4622 Күн бұрын
最好用N卡,因为很多新特性都是N卡才具备
@Little_Mosquito
@Little_Mosquito Күн бұрын
沒有顯卡可以run?
@kuku4629
@kuku4629 22 сағат бұрын
必须有GPU
@quranspeakerofficial6151
@quranspeakerofficial6151 Күн бұрын
可以辅助编程?php
@PatrickWang-s3n
@PatrickWang-s3n Күн бұрын
必须是独立显卡吗?集成显卡是不是很慢?
@dahu9989
@dahu9989 Күн бұрын
1060 6G显卡用那个?
@小姜-j4v
@小姜-j4v Күн бұрын
选择大小在6g以内的就行了,推荐ollama run 7b-qwen-distill-q4_K_M,ollama run 8b-llama-distill-q4_K_M,ollama run deepseek-r1
@dahu9989
@dahu9989 Күн бұрын
@@小姜-j4v 7b 8b 只是R1的响应速度会慢一些?不是逻辑思维性能有差异把?
@小姜-j4v
@小姜-j4v Күн бұрын
@ 还有个区别是通过qwen模型还是llama模型蒸馏,这个看你自己的选择,不过我测下来还是qwen适合国人
@dahu9989
@dahu9989 Күн бұрын
@@小姜-j4v 感谢,受教了!
@jamescooper777
@jamescooper777 Күн бұрын
@@dahu9989邏輯思維性能有差異是在被量化提取縮減的程度,q4(FP4)必然沒q8(FP8)聰明,q8必然不如q16(FP16)聰明, 因為量化縮減模型位元縮減模型Size,是屬於有損失的壓縮
@WanHao_daye
@WanHao_daye Күн бұрын
能部署在我的iPhone上吗
@健康能源探索
@健康能源探索 Күн бұрын
Ollama 网站直接打不开
@ChinaNewllb
@ChinaNewllb Күн бұрын
打开你的博客站提示:请求携带恶意参数 已被拦截,这是我的机场问题吗?
@lingdujieshuo
@lingdujieshuo Күн бұрын
嗯,换IP即可
@KuaiLeWangGuo
@KuaiLeWangGuo Күн бұрын
刚把这个问题问了DEEPSEEK,它陷入了死循环,Copilot给出了完美答案。 【一个商人骑一头驴要穿越1000公里长的沙漠,去卖3000根胡萝卜。 已知驴一次性可驮1000根胡萝卜,但每走1公里又要吃掉1根胡萝卜,问商人最多可卖出多少胡萝卜?】
@xiaotaoj
@xiaotaoj 22 сағат бұрын
试了下,给出下列答案:商人最多可以卖出 533根胡萝卜。
@KuaiLeWangGuo
@KuaiLeWangGuo 21 сағат бұрын
@@xiaotaoj 我用8b和14b两款试过,deepseek都无法给出正确答案,你是用其他的吗?
@100Kilograms
@100Kilograms Күн бұрын
mac咋安装?
@fengyang9842
@fengyang9842 Күн бұрын
喝水的问题我的1.5b模型的答案是38瓶
@johnbeaver3911
@johnbeaver3911 23 сағат бұрын
既然DeppSeek是开源免费的,那本地部署的好处是啥?能有个理由买更好的显卡玩游戏么?
@shijiezhang38
@shijiezhang38 22 сағат бұрын
本地部署就不是一般人用得上的
@wongkelvin6780
@wongkelvin6780 Күн бұрын
大家快試問r1 和 o1 mini: (誇大宣傳是不好的) 1. 有三個傳教士和三個惡魔要渡過一條河,而河中有一條船,船只能容納兩個生物。而且在任何一個地方(無論是岸邊還是船上),如果惡魔的數量多於傳教士的數量,惡魔就會吃掉傳教士。怎樣才能讓這些生物全都安全過河?(來回的船上都必須要有生物操作) 2. \text{令正實數 } a \text{ 與 } b \text{ 滿足 } \frac{a}{a+b^2} + \frac{b}{b+a^2} = \frac{7}{8} \text{ 且 } ab = 2,請問 } a^9 + b^9 \text{ 的值是什麼?} 答案760 應該會對 但重要是思考時間
@HP-ii7lc
@HP-ii7lc Күн бұрын
DeepSeek 我们需要解决的问题是: 给定正实数 aa 和 bb 满足 aa+b2+bb+a2=78 a+b2a​+b+a2b​=87​ 且 ab=2ab=2,求 a9+b9a9+b9 的值。 第一步:理解问题 首先,我们有两个正实数 aa 和 bb,满足两个条件: 一个关于 aa 和 bb 的分数方程。 它们的乘积 ab=2ab=2。 我们的目标是找到 a9+b9a9+b9 的值。 第二步:简化分数方程 我们有: aa+b2+bb+a2=78 a+b2a​+b+a2b​=87​ 为了简化这个方程,我们可以尝试找到 aa 和 bb 之间的关系。由于 ab=2ab=2,我们可以尝试用 b=2ab=a2​ 来替换 bb。 第三步:代入 b=2ab=a2​ 将 b=2ab=a2​ 代入分数方程: aa+(2a)2+2a2a+a2=78 a+(a2​)2a​+a2​+a2a2​​=87​ 简化每一项: 第一项: aa+4a2=aa3+4a2=a3a3+4 a+a24​a​=a2a3+4​a​=a3+4a3​ 第二项: 2a2a+a2=2a2+a3a=22+a3 a2​+a2a2​​=a2+a3​a2​​=2+a32​ 所以,方程变为: a3a3+4+22+a3=78 a3+4a3​+2+a32​=87​ 第四步:设 x=a3x=a3 为了简化方程,设 x=a3x=a3,则方程变为: xx+4+22+x=78 x+4x​+2+x2​=87​ 第五步:解方程 将方程两边通分: x(2+x)+2(x+4)(x+4)(2+x)=78 (x+4)(2+x)x(2+x)+2(x+4)​=87​ 展开分子: x(2+x)+2(x+4)=2x+x2+2x+8=x2+4x+8 x(2+x)+2(x+4)=2x+x2+2x+8=x2+4x+8 所以方程变为: x2+4x+8(x+4)(2+x)=78 (x+4)(2+x)x2+4x+8​=87​ 注意到 (x+4)(2+x)=x2+6x+8(x+4)(2+x)=x2+6x+8,所以: x2+4x+8x2+6x+8=78 x2+6x+8x2+4x+8​=87​ 交叉相乘: 8(x2+4x+8)=7(x2+6x+8) 8(x2+4x+8)=7(x2+6x+8) 展开: 8x2+32x+64=7x2+42x+56 8x2+32x+64=7x2+42x+56 移项: 8x2−7x2+32x−42x+64−56=0 8x2−7x2+32x−42x+64−56=0 x2−10x+8=0 x2−10x+8=0 第六步:解二次方程 解方程 x2−10x+8=0x2−10x+8=0: 使用求根公式: x=10±100−322=10±682=5±17 x=210±100−32 ​​=210±68 ​​=5±17 ​ 所以,x=5+17x=5+17 ​ 或 x=5−17x=5−17 ​。 由于 aa 是正实数,且 x=a3x=a3,所以 x>0x>0。两个解都是正数,因此都有效。 第七步:求 aa 和 bb 我们有 x=a3x=a3,所以: a=5+173或a=5−173 a=35+17 ​ ​或a=35−17 ​ ​ 由于 ab=2ab=2,对应的 bb 为: b=2a=25+173或b=25−173 b=a2​=35+17 ​ ​2​或b=35−17 ​ ​2​ 第八步:计算 a9+b9a9+b9 注意到 a3=xa3=x,所以 a9=x3a9=x3。 同样,b3=(2a)3=8a3=8xb3=(a2​)3=a38​=x8​,所以 b9=(8x)3=512x3b9=(x8​)3=x3512​。 因此: a9+b9=x3+512x3 a9+b9=x3+x3512​ 我们需要计算 x3+512x3x3+x3512​。 第九步:计算 x3x3 首先,计算 x3x3: 对于 x=5+17x=5+17 ​: x3=(5+17)3=125+7517+15×17+1717=125+7517+255+1717=380+9217 x3=(5+17 ​)3=125+7517 ​+15×17+1717 ​=125+7517 ​+255+1717 ​=380+9217 ​ 对于 x=5−17x=5−17 ​: x3=(5−17)3=125−7517+15×17−1717=125−7517+255−1717=380−9217 x3=(5−17 ​)3=125−7517 ​+15×17−1717 ​=125−7517 ​+255−1717 ​=380−9217 ​ 第十步:计算 512x3x3512​ 对于 x=5+17x=5+17 ​: 512x3=512380+9217=512380+9217×380−9217380−9217=512(380−9217)3802−(9217)2 x3512​=380+9217 ​512​=380+9217 ​512​×380−9217 ​380−9217 ​​=3802−(9217 ​)2512(380−9217 ​)​ 计算分母: 3802=144400 3802=144400 (9217)2=922×17=8464×17=143,888 (9217 ​)2=922×17=8464×17=143,888 3802−(9217)2=144400−143888=512 3802−(9217 ​)2=144400−143888=512 所以: 512x3=512(380−9217)512=380−9217 x3512​=512512(380−9217 ​)​=380−9217 ​ 同理,对于 x=5−17x=5−17 ​: 512x3=380+9217 x3512​=380+9217 ​ 第十一步:计算 a9+b9a9+b9 对于 x=5+17x=5+17 ​: a9+b9=x3+512x3=(380+9217)+(380−9217)=760 a9+b9=x3+x3512​=(380+9217 ​)+(380−9217 ​)=760 对于 x=5−17x=5−17 ​: a9+b9=x3+512x3=(380−9217)+(380+9217)=760 a9+b9=x3+x3512​=(380−9217 ​)+(380+9217 ​)=760 最终答案 无论 aa 和 bb 取哪个解,a9+b9a9+b9 的值都是:760
@HP-ii7lc
@HP-ii7lc Күн бұрын
用时十几秒
@wongkelvin6780
@wongkelvin6780 Күн бұрын
@@HP-ii7lc 食人魔呢? 我試過120幾 每次都不同😂
@HP-ii7lc
@HP-ii7lc Күн бұрын
@ ChatGPT无法解答那个数学题!ChatGPT解答的任何问题的答案也是每一次都有一些不一样!答案是随机生成的,不是设计好的!
@HP-ii7lc
@HP-ii7lc Күн бұрын
@ DeepSeek除了无法回答中国的敏感政治问题外,其实比ChatGPT的回答更深入和更全面一些,尤其在中文领域的问题!
@huatv2348
@huatv2348 20 сағат бұрын
怎么跟我的界面不一样
@gatebill2007
@gatebill2007 Күн бұрын
現在連朱克伯格Meta總裁都要公開讚嘆DeepSeek強大及便宜成本。他的團隊工程師還說要從Deepseek公開源碼中抽取(抄襲)到自家的LLaMA裡,Meta面皮真厚…🤣
@jjp4157
@jjp4157 Күн бұрын
既然开源了,就不要这么说了
@Xi54088
@Xi54088 Күн бұрын
以「更開放」為特色的新一代 AI 模型 DeepSeek V3,號稱在降低訓練成本的同時,在多項評比數據上都有與 GPT-4o 或 Claude 3.5 同級,或甚至更佳的表現,並且可以輕鬆完成撰寫文章、程序編碼等工作。然而詭異的是,當你問它是什麼模型時,它卻會回答說自己是 GPT-4,甚至問它 API 如何使用時,它回答的卻是 OpenAI 的 API 的使用方法。 笑...
@jy9915
@jy9915 Күн бұрын
听着是deep sick
@Czk77
@Czk77 Күн бұрын
都是開源的 互相學習豈不是更好嗎 而且都是被允許的行為
@terry1708
@terry1708 Күн бұрын
训练数据源来源于openAI而已,根本不是什么大事。​@@Xi54088
@道可道-j9v
@道可道-j9v Күн бұрын
谢了,很好用。用了,比较下感觉比ChatGPT还好用。
@klosetony
@klosetony Күн бұрын
其实并不能识图,用的是文本分析。
@Jackkerr-pn7bz
@Jackkerr-pn7bz Күн бұрын
大陆应用商店就可以直接下载
@magicer911
@magicer911 Күн бұрын
就在等零度出教程呢。
What Happens When Magnifying Chips Thousands of Times?
16:39
Mediastorm影视飓风
Рет қаралды 462 М.
我对王局的看法发生了些变化
47:15
老雷
Рет қаралды 5 М.
Каха и дочка
00:28
К-Media
Рет қаралды 3,4 МЛН
СИНИЙ ИНЕЙ УЖЕ ВЫШЕЛ!❄️
01:01
DO$HIK
Рет қаралды 3,3 МЛН
黑天使只对C罗有感觉#short #angel #clown
00:39
Super Beauty team
Рет қаралды 36 МЛН
Why the Future of AI & Computers Will Be Analog
17:36
Undecided with Matt Ferrell
Рет қаралды 559 М.
留在小紅書的外國人中會誕生下一個郭傑瑞嗎?
9:11
【亦】x86已死?
23:22
林亦LYi
Рет қаралды 468 М.
Transformers (how LLMs work) explained visually | DL5
27:14
3Blue1Brown
Рет қаралды 4,4 МЛН
台湾网友一次性发来8张3090拆开一看实在是蚌埠住了
24:47
修电脑的张哥
Рет қаралды 467 М.
Каха и дочка
00:28
К-Media
Рет қаралды 3,4 МЛН