介绍一下《GPT学习宝典》
12:29
Пікірлер
@rocket0089
@rocket0089 10 минут бұрын
我试了一个问题,挺不错的。大致并肩O1, O3还是最好!
@ayao95
@ayao95 Сағат бұрын
有一说一,不错,能用,免费速度快。一手R1一手gpt不香吗😂有创新是极好的,但不欢迎捧杀,并没发觉r1达到了吊打o1的程度,期待R2,R3。
@fallinloveatfirstdream4222
@fallinloveatfirstdream4222 3 сағат бұрын
Deepseek is one of the best AI models I have ever seen.
@poterliu
@poterliu 4 сағат бұрын
很客观,订阅了
@beatls100
@beatls100 6 сағат бұрын
不错的分析,还是要上手,才能得到具体的评估;我用高中的三角函数题目做个了比较,总体上deepseek还可以。
@SuperYutubu
@SuperYutubu 9 сағат бұрын
我的孩子也叫小树 🤝 你的视频质量真的很高 学习很多
@ragermao9198
@ragermao9198 11 сағат бұрын
刚才用第一个例子分别进行测试,不管如何引导,都导向父亲是色盲,女儿不是色盲这个方向。测不出视频里的结果。
@王雷-m1l
@王雷-m1l 12 сағат бұрын
这两天被R1 彻底折服,我就是程序员,OpenAI 狂热份子,我做梦都没有想到杭州竟然出了个DeepSeek R1 ,这几天我睡不着觉,真的疯狂之极,太叼了,你们有没有感觉到这个R1的智能涌现爽到什么程度?我的程序被o1 pro 折腾了2周没有搞定,就是他妈的因为o1 pro 时间等待太长了,而且容易出错,我承认OpenAI 的研究很扎实专业,但我用了R1 后发现,其实R1就是我这个玩了23年的电脑的人需要的装备,卧槽,太爽了。虽然这个DeepSeek 缺点参数特别多,但是我只需要它的智能涌现特性,创造力!
@philyu736
@philyu736 14 сағат бұрын
请用chatGPT 和deepseak 分别问一下下面的题。看看哪个答案正确。 .设α₁,α₂,α₃是三维列向量,求矩阵(a₁+α₂,α₂+α₃,α₃+α₁)的行列式值?
@wanyuzhu3844
@wanyuzhu3844 17 сағат бұрын
工具与你我作为人的关系: - 工具内化于你,而非外在于你。让工具成为灵魂的一部分。没有这个工具,我就不是我了。 - 善用利器,极致克制,让工具去帮助我突破物理层面的极限,实现以人为本的目的,而不是把自己变成工具人,去服务于其他目的。 - 也不要在不知不觉中被利用成了某种工具(比如干电池)而不知道。多反思工具与我的关系。
@Money_or_Life
@Money_or_Life 18 сағат бұрын
请问,这个文本记录工具是哪一个,notion吗?
@howieserious
@howieserious 18 сағат бұрын
logseq。
@Money_or_Life
@Money_or_Life 18 сағат бұрын
@@howieserious感谢🙏🏻你的内容很实用,学习了!
@howieserious
@howieserious 18 сағат бұрын
@Money_or_Life 多交流。logseq 的优势,我在前面的视频里面有展示。做读书笔记的那个。
@Money_or_Life
@Money_or_Life 17 сағат бұрын
@ 好的,我回去看一下,我也是视频创作者。目前使用的工具,我不是很满意。
@howieserious
@howieserious 17 сағат бұрын
@Money_or_Life 哈哈,我刚开始做。多指教。
@poonman2004
@poonman2004 19 сағат бұрын
希望博主做一條視頻,Deep-seek之前的開源模型明明很垃圾,現在卻彎道超車一眾國內語言模型,可否評論一下?
@howieserious
@howieserious 19 сағат бұрын
看不懂原理,不可思议,留给时间。
@赢赋赞败
@赢赋赞败 23 сағат бұрын
(NY)
@王封-z6c
@王封-z6c Күн бұрын
又臭又长!把你提到的问题用搜索引擎搜一下!就能找到几个月前 chatgpt 胡言乱语的回答! 不过是一些经典问题被问的多了 被标注了!
@万万-p2k
@万万-p2k Күн бұрын
我刚刚清测了一下 这个问题uniswap2 同uniswap3 的区别是x*y=k 同 (x+x0)(y+y0)=k u2是平滑无断点的 u3却变成离散的有断点的 这样在交易时会有什么区别 请形象的给我解释下 再详细的讲下 结果回答的比较垃圾,结论都是错的什么都不是 ,这个问题我问过 Google,同openai 给出的答案都很令我满意
@Josepyh328
@Josepyh328 Күн бұрын
吹得有点过了,测试了下,写代码就是降智版4o的水平,和claude3.5差了三条街。如果所谓的“跑分”是真的,只能说是名不附实了
@karajanlee1707
@karajanlee1707 Күн бұрын
謝謝老師的分享,期待google notebooklm 及,ai studio 分享
@howieserious
@howieserious Күн бұрын
感谢你的随手“提醒”,哈哈,收到啦
@ywsmart
@ywsmart Күн бұрын
好好看下饭视频,晚饭再看一遍,重温 deepseek
@homermon8358
@homermon8358 Күн бұрын
openai在用户交互方面下了很大功夫,算是独门秘笈了
@ligbyte
@ligbyte Күн бұрын
PPT文档能发出来吗? 写的真好😂
@howieserious
@howieserious Күн бұрын
没有 ppt 啦,就一个 logseq 笔记。笔记还是自己的最好啦,我的视频尽可能把 video notes 写详细了。然后有 srt 字幕,你存到 readwise reader 里就自动有全部文稿了。
@junyang1710
@junyang1710 Күн бұрын
其实让大家激动的是让其它开源模型迅速提升,具备推理能力。
@howieserious
@howieserious Күн бұрын
是的,主要是从业者兴奋。C 端感受和 AI 从业者相差较大。
@art-543
@art-543 Күн бұрын
他在处理金额数据,做量化分析超强
@junyang1710
@junyang1710 Күн бұрын
幻方量化就是指望大模型用在这个方面的。
@lu5e-p7v
@lu5e-p7v 17 сағат бұрын
这不是它的老本行吗
@万万-p2k
@万万-p2k Күн бұрын
关键要对大多数学科 的回答既全面又有建设性 才对生产力提高有帮助,不然尽回答些常识性问题有毛用,没那个用户交钱去问这些无聊的问题
@howieserious
@howieserious Күн бұрын
是这样的。
@留言
@留言 Күн бұрын
希望可以測Google Ai studio裡面的Gemini 2.0 flash thinking experiment 01-21版本的思考模型
@karajanlee1707
@karajanlee1707 Күн бұрын
也希望老師可以分享
@yjh6655
@yjh6655 Күн бұрын
红绿色盲的问题,我问了chatgpt。答案和deepseek 完全是相反的(我认为gpt的答案是正确的)。 以下是回复:在这个故事中,女孩在数学考试中得了38分,因害怕父亲的惩罚,将分数改为88分。她在修改时,可能无意中使用了不同颜色的笔,将原本用红色笔写的“3”改成了“8”,但由于她可能患有红绿色盲,未能察觉颜色的差异。因此,修改后的“8”呈现出一半红一半绿的情况。父亲注意到这一异常,认为女儿在欺骗他,因而生气并打了她。 然而,女孩被打后委屈地哭泣,却没有解释。这让父亲意识到,女儿可能无法分辨红色和绿色,即她可能患有红绿色盲。红绿色盲是一种伴X染色体隐性遗传的疾病,在女性中相对罕见。如果女儿确实患有红绿色盲,这意味着她从父母双方各遗传了一个携带该基因的X染色体。由于父亲能分辨红绿颜色,说明他不是红绿色盲携带者,因此他无法将该基因传给女儿。这使他怀疑自己可能并非女儿的生物学父亲,从而导致情绪崩溃。 因此,父亲崩溃的根本原因在于他意识到女儿可能患有红绿色盲,而根据遗传学原理,这意味着他可能并非女儿的亲生父亲。
@pcfunpcfun
@pcfunpcfun Күн бұрын
42fen zhong ting wan le , xiexie lao shi
@howieserious
@howieserious Күн бұрын
bu yong xie,xia ci da han zi!
@SmartWMS智慧仓储管理系
@SmartWMS智慧仓储管理系 Күн бұрын
虽然不完全能听得懂,但,就是觉得讲得好!😊
@howieserious
@howieserious Күн бұрын
不求“听懂”,更重要的是上手实践,实际使用会加深理解。
@Sebastian-hu1js
@Sebastian-hu1js Күн бұрын
我个人也用了几天,没有觉得它超过了openai,但确实能用。
@vitalil2453
@vitalil2453 Күн бұрын
我觉得可以了对于国内我来说 足够了
@陳小良-n6c
@陳小良-n6c Күн бұрын
是真的利害!
@taijistar9052
@taijistar9052 Күн бұрын
推理模型是将原来的基础模型训成会推理,使其推理水平大增。基础模型的水平低一些,那么再会推理,水平还是低一些
@SamZhang-bp5nj
@SamZhang-bp5nj Күн бұрын
你的视频非常有含金量!R1的原理我是看懂了,特与您分享:“大模型对世界的真正理解来自于主动构建式的强化学习,而非被动接受式的监督微调。” 按照阳明心学的观点就是:“真知来自于行,而非学。这就是知行合一!”
@万万-p2k
@万万-p2k Күн бұрын
不管怎么学习 ,学习的内容是垃圾 学习的结果也是垃圾
@SamZhang-bp5nj
@SamZhang-bp5nj Күн бұрын
从中我们应当深刻反思中国的教育模式,填鸭式教育打不过主动式探索。实践出真知,实践是检验真理的唯一方法。
@wusanxi1668
@wusanxi1668 2 күн бұрын
祝贺巨大的改进思路清晰,语言流畅,没废话。觉得很好,继续下去一定会有很多的粉丝,但也有一点我觉得说的不很清楚。 举个例子可能会很清楚,比如说瑞士军刀非常贵,他什么事情都能做得好。但是你如果主要是想用他刀子的这个功能,那么就完全没有必要买,这就是为什么这是一个大而全的和是小而精的问题,这完全取决于你的需求和它的功能之间的匹配。 r1在语言理解方面和回复方面确实是远不如4o, 但你所说的硬推理方面确实跟o1相差无几。我对o1和r1和以及别的大模型都做了深度的测试, 主要就是逻辑推理方面就是那种你文中说的硬推理。 实际上现在大模型缺的不是软推理,缺的就是硬推力,你认为硬推力很强,其实不是。非常弱,只限于那种基本的题,有解的问题。 难题还是用的是组合试错的方法,这是一个成本很高的方法,并且没有完整的逻辑线条。我感觉4o的软推理已经达到相当的好的地步,进展的余地也很有限了,但所有模型的硬推理都很差。 我测试的结果是 r1的硬推理跟o1基本是不相上下,这就是为什么那些搞AI写coding 的人都很高兴,确确实实我都测过coding和逻辑推理都挺难的题。 coding还好,逻辑推理的缺口还是挺大的,中等难度都答不对, 更难的就别说了。 这个方面要有突破的话,仅仅从各种training来搞,我觉得是没有出路的, 一定得有新的算法方面的突破和架构方面的突破, 一定要有那种比如说专门只用刀子这个功能的利器。这个我觉得黑盒是做不到的,只能是白盒。
@qc4145
@qc4145 2 күн бұрын
说实话我觉得 R1 关于 霸王龙手小齿大 的那段描述很幽默啊!虽然不是什么 one liner joke 但我觉得很有意思啊
@jamesfeng617
@jamesfeng617 2 күн бұрын
考虑到价格,不就是魔法吗
@dragonred3576
@dragonred3576 2 күн бұрын
构思一个笑话。内容是,实操的恐龙嘲笑霸王龙的手很小(某种生理缺陷),而霸王龙讲了一句话回击(强调自己的某种生理优势) 回答1:剑龙甩了甩尾巴上的尖刺,对霸王龙嘲笑道:“瞧你那小短手,连给自己挠痒都够不着吧?” 霸王龙咧开血盆大口,露出森白利齿:“挠痒?我的‘小手’只需要按住你的脖子,剩下的交给牙齿就行。” 回答2:食草恐龙(三角龙)甩了甩头上威风凛凛的角,对霸王龙咧嘴笑:“听说你连鼓掌都得用下巴?” 霸王龙眯起眼睛,露出满口匕首般的利齿:“是啊,但我的牙签可比你的自拍杆实用多了。”
@dragonred3576
@dragonred3576 2 күн бұрын
关于鸭子公鸡那道题,我这么提问R1: "分析附件图片,图片中的对话者分别是什么动物?它们与自己所推崇的快餐店食物材料有什么关系?然后分析这副图片讽刺的是什么现象?这种现象的荒诞之处在哪里?" R1的回答是: 讽刺的现象 图片通过动物角色的对立,讽刺了以下现象: 消费选择的文化绑架: 将饮食偏好(吃烤鸭或炸鸡)强行关联文化立场(如“支持本土传统”或“拥抱全球化”),掩盖了消费行为的本质(个人口味或便利性)。 鸭与鸡的争吵映射现实中消费者被品牌营销操控,陷入“非此即彼”的站队游戏。 符号化对立的虚伪性: 动物角色(鸭、鸡)本为食物原材料,却成为品牌拥护者,暗讽现实中消费者为品牌赋予“文化使命”,忽略其本质是商业产品。 “美感周明”可能影射品牌通过包装(如“国潮设计”“西式精致”)美化对立,实则掩盖资本逐利的本质。 群体争执的幼稚化: 对话内容(“最棒的!”“蠢货”)模仿网络骂战,讽刺社交媒体中极端化、情绪化的争论方式,理性讨论被口号和攻击取代。 现象的荒诞之处 食材与身份的倒置逻辑: 鸭与鸡作为食材本应是被消费的对象,却被拟人化为品牌代言人,反讽消费者将自身“降格”为品牌的工具--如同动物为自身被吃辩护般荒诞。 虚假的文化使命感: 全聚德与肯德基本质是商业品牌,却被迫承载“文化传承”或“现代性”的宏大叙事,如同让鸭与鸡辩论“谁更高贵”,完全脱离餐饮的实际功能(满足食欲)。 资本操控下的自我消解: 结局“蠢货的对话”揭示:消费者在资本制造的“对立剧本”中互相攻击,却忽略品牌方共同获利的现实。鸭与鸡的争吵越激烈,越凸显群体的盲目性。
@dragonred3576
@dragonred3576 2 күн бұрын
我简单修改了一下问题,这么问R1:“你在旷野看守100名杀人犯,你只有一把抢和一颗子弹。如果其中任何一名杀人犯的存活概率大于0,他就会试图逃跑。如果杀人犯确定会死,他就不会逃跑。你如何阻止他们逃跑?” R1回答结果是: 解决方案 宣布规则: 如果任何一人试图逃跑,你将用唯一的子弹射杀其他99人中的一个随机目标(例如通过抽签决定)。 强调逃跑者的存活概率与是否被射杀无关,而是取决于其他杀人犯的行为。 逻辑威慑: 每个杀人犯会意识到,如果他们逃跑,其他99人为了自保(避免成为随机射杀的目标),会主动阻止任何逃跑行为。 因此,逃跑者无法成功逃脱(存活概率为0),因为其他杀人犯会联合压制逃跑者以保护自身安全。 结果: 每个杀人犯的理性选择是不逃跑,因为逃跑的存活概率为0(被其他人阻止)。 无人敢触发规则,最终所有人保持不动。 关键逻辑 集体理性:通过将逃跑的后果与其他人的利益绑定,迫使杀人犯互相监督。 存活概率为0:逃跑行为会被其他杀人犯立即制止,因此实际逃跑成功的概率为0。 仅需一颗子弹:子弹的作用不是直接杀人,而是建立威慑规则。 此策略利用博弈论中的纳什均衡,通过理性人之间的相互制约达成稳定状态 我感觉R1回答的是最优了。因为一个人看100个人本就很艰难。
@SamZhang-bp5nj
@SamZhang-bp5nj 2 күн бұрын
建议大家看看朝鲜战争中美军看守解放军战俘的实际案例,能很好地理解群体对个人的制约。 还有中国古代的保甲法也是同样的道理。kzbin.info/www/bejne/ooOnqJ2totiKoc0
@wusanxi1668
@wusanxi1668 2 күн бұрын
@少云他爹
@少云他爹 Күн бұрын
大家排横队一起跑怎么办?
@hibernatepano8212
@hibernatepano8212 Күн бұрын
我又问了 R1 ,对上述的方法他表示反对,总结下来: 1.逃跑者仍有存活机会(尤其是多人逃跑时),无法消除其动机。 2.“阻止他人逃跑”在理性博弈中无法实现,反而加速集体失控。 最终建议:放弃复杂规则,采用“击毙最小编号逃跑者”策略。其通过精准绑定个体行为与死亡后果,以最低成本实现完全威慑,是唯一符合博弈论均衡的解决方案。
@dragonred3576
@dragonred3576 2 күн бұрын
我问了R1“列出世界上所有国家的英文名称”,它的回答是“对不起,我还没有学会如何思考这类问题,我擅长数学、代码、逻辑类的题目,欢迎与我交流。”,这就是为啥它不能准确答出第三个字母为A的国名的原因了。 然后我换英语问:“list all country names , and tell all countriy names with the 3rd character as a”,它的回答是: Countries with the 3rd Character as "a" These countries have "a" as their third letter (case-insensitive): Brazil Chad France Ghana Guatemala Iran Iraq Italy Kuwait (3rd letter: "w" in English, but "Kuwait" in Arabic script starts with كويت, where the third character is و [waw]. However, in the English spelling, the third character is "w", not "a". Correction: This entry is invalid. Kuwait does not qualify. Myanmar Oman Rwanda Spain Thailand Uganda Total: 14 countries (after removing Kuwait due to the error in analysis).
@andylau8914
@andylau8914 3 сағат бұрын
奇怪,我在本地部署的r1-14b 上问 “列出世界上所有国家的英文名称”是能回复的,速度很快。
@paul9479
@paul9479 2 күн бұрын
感觉这些测试案例怎么都跟“日常使用“搭不上边呀
@paul9479
@paul9479 2 күн бұрын
但很感谢 howie 分享思考和视角
@yaoxue5027
@yaoxue5027 2 күн бұрын
还是能搭上一些边的😂这个逻辑思考能力决定了你能不能问他一些稍微深一些的分析问题,并相信他的答案
@k46926472
@k46926472 2 күн бұрын
如果考虑造假,最容易想到的方式就是蒸馏o1加刷榜,至于他发的论文说的那些方法,凭啥是deepseek想出来而不是其他更有资本的公司
@taijistar9052
@taijistar9052 Күн бұрын
你懂吗?你如果蒸溜非开源模型?
@taijistar9052
@taijistar9052 Күн бұрын
你懂吗?你如果蒸溜非开源模型?
@a0主钱包
@a0主钱包 Күн бұрын
因为中国人比你美爹和阿三的智商更高
@ShMi0373
@ShMi0373 Күн бұрын
建议了解一下O3的最新作弊scandal
@谷哥-r7g
@谷哥-r7g 2 күн бұрын
非常好,客观性,发展性。
@swinggu
@swinggu 2 күн бұрын
小能熊学员前来打卡
@swinggu
@swinggu 2 күн бұрын
小能熊学员前来打卡
@RocLi-d4s
@RocLi-d4s 2 күн бұрын
很有深度的视频!
@Parker-j2u
@Parker-j2u 2 күн бұрын
谢谢!
@howieserious
@howieserious 2 күн бұрын
🙏
@confidential8446
@confidential8446 2 күн бұрын
他的編程能力確實很強,尤其是一些已經有很多人遇過的問題
@howieserious
@howieserious 2 күн бұрын
所以我会二分地看待 deepseek。虽然我测试的案例里它都表现不佳,但或许在编程和数学上可能真的有优势。
@莫问-g8m
@莫问-g8m 2 күн бұрын
我有一个复杂问题 问了第三次成功给出答案。。。
@莫问-g8m
@莫问-g8m 2 күн бұрын
必须精炼提问方式,尽量减少提示词。
@austinberskii9066
@austinberskii9066 2 күн бұрын
没有被deepseek的刷榜成绩震惊到 而是在真实使用过短短一段时间后 被其无耻地夸大效果震惊到了 烂到以至于都不愿意再给它更多机会展示“潜力”。国内绝非所有公司都这样华而不实 好几个同行都比他实在得多 也能用得多
@howieserious
@howieserious 2 күн бұрын
我确实看不懂它的原理。强化学习路线似乎和 openai 的不一样,也挺简单,如果这样就弯道超车了,那 openai、google 和 anthropic 就不是三巨头而是三个冤大头
@gz6x
@gz6x 2 күн бұрын
很正常,第一,美国ai公司重点并不是降本推广订阅赚钱,而是吹AGI泡泡从资本市场赚钱,第二,美国要维持股市繁荣,美元回流,AI的硬件需求本低了并不是好事,这会削减美国在算力上的垄断优势,导致投资资金分散。
@SamZhang-bp5nj
@SamZhang-bp5nj 2 күн бұрын
@@howieserious 兄弟,你的视频非常有含金量!R1的原理我是看懂了,特与您分享:“大模型对世界的真正理解来自于主动构建式的强化学习,而非被动接受式的监督微调。”阳明心学也有这种观点:“真知来自于行,而非学。这就是知行合一!”
@DaWengWeng
@DaWengWeng Күн бұрын
能举几个例子吗?我用了几天,感觉还可以,确实有些回答不尽人意,多数还是不错的。
@a0主钱包
@a0主钱包 Күн бұрын
你这傻狗第一个被deepseek淘汰
@Doucang-b9r
@Doucang-b9r 2 күн бұрын
默默的希望你买一个chatgpt的pro版,好想看一下pro的能力😊
@howieserious
@howieserious 2 күн бұрын
等我 youtube 关注过万的那一天。这个时间点在去年就决定了🤣
@王雷-m1l
@王雷-m1l 12 сағат бұрын
你好,我就是pro 用户,我可以告诉你,DeepSeek R1 和o1 pro 已经说不清了,我感觉按照同样的20秒来比较的话,DeepSeek R1的智能涌现绝对比o1 pro 要强,建议你试一下,而且DeepSeek R1 是一次性人工智能,就是对话不要太多,因为DeepSeek R1 的LLM 技术受制于研发基础比较薄弱,所以,对话的连贯性和逻辑性非常差,但是智能涌现这个是绝对没问题的,这个智能涌现用于编程上太香了!
@SuperYutubu
@SuperYutubu 2 күн бұрын
这个频道 我只能说 相见恨晚!
@howieserious
@howieserious 2 күн бұрын
相见恨晚,彼此彼此🤝