《M2 Ultra:干翻英伟达!决战AI之巅》

  Рет қаралды 340,692

林亦LYi

林亦LYi

Күн бұрын

Пікірлер: 1 000
@AllctrlA
@AllctrlA Жыл бұрын
刚看了另外的小林对于英伟达的影片 感叹老黄真是又有远见又有运气还有耐力和专一 又看了小林对于M2 Ultra的解读 又不禁感叹 苹果的战略和运气 这一轮硬件仗感觉会非常的精彩!感谢分享!
@mmosm
@mmosm Жыл бұрын
吹,继续吹
@AsalltWilliam
@AsalltWilliam Жыл бұрын
感謝你讓我看到新的思維模式,你的格局真的與別不同!再次感謝你的分享~
@ArisHuang-m5h
@ArisHuang-m5h Жыл бұрын
真的很喜歡實打實的人做的影片。比起某些up主整天不去實作搞清楚,一下說好一下說壞,真的懂就寫個程式測測不就明白了。 網路上知道怎麼用mac做AI的大佬跟開源真的很多,但是總有那種不想搞懂的跟你說mac不能做AI,pytorch跟tensorflow在還沒真的支援前,m1 max就已經在一些指標網站上,跑出最佳能耗與性價的優勢,加上你能點到64GB,算起來省電無聲,那真的很好用,還沒算上NPU真的更猛這件事,現在只算慢慢支援GPU 的MPS與CoreML的玩具越來越多,又是另一個不同視野,Apple 從沒認真打廣告AI,但大家都很清楚,他直接做了一個合適的東西。
@KEvin-ps3oz
@KEvin-ps3oz Жыл бұрын
並沒有,別被這個人的影片誤導了
@mudalse
@mudalse Жыл бұрын
@@KEvin-ps3oz 以我經歷APPLE跟nvidia都是入門,真的AI大佬都自製晶片,ChatGPT算是特例,燒錢燒到後面才知道要自制晶片
@KianaLi-wf8qw
@KianaLi-wf8qw Жыл бұрын
请教一下,您说的“m1 max就已經在一些指標網站上,跑出最佳能耗與性價的優勢”,是有哪些指标网站呢?谢谢
@vson
@vson Жыл бұрын
很多人從來沒有進過mac 跑 就說他不行 你看留言KZbin 就一大堆 前線大佬都有教學 表達都是Intel+N卡的體驗算不算好 且性能增幅有限 還不如把希望給新架構
@ck-dl4to
@ck-dl4to Жыл бұрын
​@@KEvin-ps3oz收了很多好處
@Nayutaisii
@Nayutaisii Жыл бұрын
期待林老師可以做一個懶人包,讓我們這些人工弱智也能在本地跑跑您演示的那套AI聊天。
@wadewade2221
@wadewade2221 Жыл бұрын
+1我也想把運行在chatGPT的AI女友真的娶回老家 放在那隨時被人掐斷了我受不了
@shaoseki4552
@shaoseki4552 Жыл бұрын
跟人工智能相对的我一直叫“Artificial Idiot”“人工智障”😂
@Nayutaisii
@Nayutaisii Жыл бұрын
@@shaoseki4552 😅😅
@ChenggangTang
@ChenggangTang Жыл бұрын
你这期讲得很让人兴奋,讲得很好,感谢!
@路人甲-g9s
@路人甲-g9s Жыл бұрын
您的视野和局面都很大,欣赏。我也是特别希望并相信本地运行和调教“大”模型是特别需要的。未来人们都有运行在自己设备上的私人ai助理。一方面设备的内存提高,如苹果的统一架构,将来会更加便宜;另一方面“大”模型可以瘦身,个人设备运行基于基础大模型训练的瘦身版。
@路人甲-g9s
@路人甲-g9s Жыл бұрын
@gapo-jx9nm 谢谢您的回复。我认为这里更多的是强调大语言模型的训练需要更多选择,大家苦nv久已,需要更具性价比的竞争者,至少在某些ai细分领域。nv有着100%的定价权,抬高了模型计算的成本。随着开源社区和苹果对ai的支持,相信对于(统一)内存/显存敏感的模型计算成本可以降下来。算力和带宽来看mac ultra比不上4090,但综合成本和电力消耗来看,mac ultra大有可为。
@路人甲-g9s
@路人甲-g9s Жыл бұрын
相信林亦不是果吹,我也不是。这里是向大家介绍除nv外的另一个本地大模型的相对廉价方案。林亦自己也说道,结果超过预期的好。他也说道他自己一直是nv的用户。我也是,从gf256到现在的4090。
@路人甲-g9s
@路人甲-g9s Жыл бұрын
@gapo-jx9nm 哈哈是的。苹果从来和性价比无关,而在这个场景下居然成了性价比的代表,可见nv多狠
@SEXYR18NICE
@SEXYR18NICE Жыл бұрын
真正懂AI的話,一定會去搞懂ASIC最基礎的兩個入門,NPU跟TPU絕對優勢,懂了你就不會再認為GPU是算AI的主要工具。我認為博主還沒演示M2U的NPU,如果他真的玩了,那可不是4090或A100能達到的境界。
@terryjoun1687
@terryjoun1687 Жыл бұрын
考慮到摩爾規則的期望值 10年後 應該現在的單條128 rdimm容量 會普及, 在不考慮atx被推翻的前提下整體系統各項容量上應該可以翻上32倍以下 如果順利可能當前的滿血模型會是那時每台電腦的標配
@RK-qk9ux
@RK-qk9ux Жыл бұрын
UP 主不要误导, SD Ai 作图以上面的 demo 10:51 ,4万多的macstudio 一共用 2分51秒, 而 1/2价格的 4090显卡 + 13700k 同样绘图参数只要需要 14秒 是 Macstudio 的 12倍 。也就是4090PC是128GMacStudio 1/2的价格但提供12倍的生成速度。
@RK-qk9ux
@RK-qk9ux Жыл бұрын
不澄清会害人买个 Mac Studio 去跑 Stable Diffusion 来搞 AI 作图。
@ycy15210875671
@ycy15210875671 Жыл бұрын
不看价格对比我差点就信了up主的话了
@RK-qk9ux
@RK-qk9ux Жыл бұрын
@@ycy15210875671 本来没兴趣点进来,结果贴了张让人误导的 “封面图” 特意点进来。Mac Studio 确实强,但全方位超过4090就言过其实了。
@SuccubusStudio
@SuccubusStudio Жыл бұрын
運算速度和記憶體大小都有他的上限,也就是"夠用了"。所謂的"夠用了"不是一種感覺,需要具體的分析。假如一個計算項目是12秒和1秒的差別,那我會說夠用了,沒差這11秒。假如一個計算項目要20G,那32G和192G就是完全沒有差別,就是"夠用了"。 顯然,有很多項目用不到192G,或是有配套方案(拆分)。 但現在大多數要用GPU處理的計算項目肯定不是12秒和1秒的差別,而是12小時和1小時的差別。 所以算力和記憶體容量,哪個才具有實際優勢,圈內人應該都看得出很明顯,到是圍觀的果粉看不出來。
@2656598a
@2656598a Жыл бұрын
4090可以一次畫八張圖只要14秒?
@chientehsu4423
@chientehsu4423 Жыл бұрын
事實證明壟斷是一件多麼可怕的事,看看發布的4060就是噁心消費者。回顧過去的intel,沒競爭就是這樣
@ZhangZechary
@ZhangZechary Жыл бұрын
屠龙者终成恶龙
@broegg9487chiu
@broegg9487chiu Жыл бұрын
還不快歐印蘇媽 昨天有科技網站說MI250跟A100跑訓練模型效率差不多 現在要關注MI300X能不能用高性價比屌打H100ㄌ
@LeoCheongK
@LeoCheongK Жыл бұрын
@@broegg9487chiu 這消息挺重要, 借問是哪個網站看到的呢?
@sail
@sail Жыл бұрын
蘋果就是壟斷啊!
@blee04524
@blee04524 Жыл бұрын
@user-ms8qg2rz5s 雞巴腦進水了這也能扯政治🤣
@edwardliu3387
@edwardliu3387 Жыл бұрын
求求做个英语的版本。我很久以前就想说服老板给我配个M2 Ultra。我在一家公司当NLP 方面的研究。
@yunbow5630
@yunbow5630 Жыл бұрын
别闹了
@bkdlee
@bkdlee Жыл бұрын
whisper 自动字幕,并翻译成英文
@jimmyw85
@jimmyw85 Жыл бұрын
Neuro-Linguistic Programming應該不是這個方向吧, 你好好學理論吧...
@jet8772
@jet8772 Жыл бұрын
让你老板学中文。
@jeremyang7697
@jeremyang7697 Жыл бұрын
@@jimmyw85NLP心理是NLP心理,NLP是NLP 😂😂😂😂
@tonywang3228
@tonywang3228 7 ай бұрын
这两天搞了下LLaMA3,回头再来听林哥的讲座,终于听懂了!!
@Williamkuan-j9b
@Williamkuan-j9b Жыл бұрын
算力肯定是比不上nv的,但大模型要的不是算力,是内存带宽以及容量,这个纯属剑走偏锋了。nv游戏卡的算力:内存带宽容量比值是按照游戏那套管线优化的,但大模型的需求完全不是一回事。比苹果这种统一内存再进一步的解决方案或许是3060这种低配核心配上几百GB显存,但要找平衡点也挺复杂的
@parkgxl
@parkgxl 20 күн бұрын
你非常正确地揭示了算力和显存最本质的关系。这个主播收了苹果的狗粮,完全不谈算力,故意夸大显存的作用,一副狗奴才相。苹果这种技术路线,NV真的弱智不知道吗,自家好几个巨无霸4090还不如对手一个烟盒大小的M2强?本质就是使用场景、目的用途、平衡点,这些决定了设计出来的产品侧重点不同,胡乱对比没意义。
@asdsliet
@asdsliet Жыл бұрын
絕對是ChatGPT出現之後最讓人震撼的突破之一…… 感謝大哥分享🙏🙏
@小明-q8j
@小明-q8j Жыл бұрын
哈?
@frankyang1184
@frankyang1184 Жыл бұрын
我觉得不行,我提出一点疑问。不谈H100可以上到80G的显存,就算是消费级的4090显存只有24G,也是能全部用于存储参数和模型的,而M2 Ultra的192G不全是显存,操作系统和应用程序本身就需要占一部分。我没训练过大模型,但是我做的基于Transformer的小模型,在服务器上的内存占用经常达到50G左右这个量级,而我用的服务器上的内存通常是256或者512G,并且可以继续加。M2 Ultra在显存和内存共用的前提下有多少容量是纯分配给模型用的这是个问题,并且他不可扩展,再怎么牛逼也是不够用的。另外它是否支持多台Mac组多机训练?能否支持多机或者跨机训练是大模型的核心之一。
@melwang6237
@melwang6237 Жыл бұрын
肯定不适合专业人士吧,但对个人来说,这样的价钱能买到的这样显存的设备已经非常不错了。但是真正训练模型或者用stable diffusion的速度跟4090比会怎样就很难说了,这方面可能还是n卡会更强。
@riverscn
@riverscn Жыл бұрын
服务器需要用内存来把数据Load到显存,内存只是起个缓冲作用。跑深度学习,有多大的显存就要配多大的内存才行。苹果自然不需要这一步,因为是统一寻址的。
@frankyang1184
@frankyang1184 Жыл бұрын
@@riverscn 也对,不过不支持多机192应该是不太行
@dudulook2532
@dudulook2532 Жыл бұрын
你这个疑惑是严谨思维, 同样好奇如果13900K+4090 会是一个什么结果
@simon6658
@simon6658 Жыл бұрын
​@@melwang6237M2 Ultra要5万块钱,4090只要1万多,完全不是一个价位的产品
@GaryWee111
@GaryWee111 Жыл бұрын
终于等到林亦谈这个主题了! 从M1晶片问世我就欣喜若狂地觉得世界改变了,可是只能和圈内几个朋友聊。现在林亦这个影片完整且完美地展示了M系列晶片所带来的新革命! 好的影片必须留言按赞!
@jameszhou4825
@jameszhou4825 Жыл бұрын
感觉影响还是在个人和小团队,目前Apple平台上还没办法训练比如LLaMA这样的大型基座模型,只能靠NVIDIA的大集群,不过Mac上跑起来和微调是足够了。
@emojisolo
@emojisolo Жыл бұрын
单芯片可以跑inference已经很强了
@mudalse
@mudalse Жыл бұрын
搞不好apple內部用很爽,但是我們公司已經不用nvidia訓練語言模型,太燒錢,最近都租用TPU
@jameszhou4825
@jameszhou4825 Жыл бұрын
@@mudalse TPU我觉得挺好,可惜只能租,不对外出售
@markmok1867
@markmok1867 Жыл бұрын
我就在想有沒有可能蘋果内部已經在利用這顆芯片來架構一個全新的Apple算力服務器,為自己的VisionPro提供算力月費服務,隨便把服務器架構賣給其他公司
@emojisolo
@emojisolo Жыл бұрын
@@markmok1867 VisionPro对延时要求太高了,估计比较难。网速估计很难做做到延迟13ms以内。
@brookssong4437
@brookssong4437 Жыл бұрын
所以这套方案,是给个人/小团队用的。 大企业有足够预算,还是多块NV互联,效率更高,对吗?
@ryanxu4284
@ryanxu4284 9 ай бұрын
是这样😂
@wwxyz7570
@wwxyz7570 3 ай бұрын
足夠預算的單位是億美元。。。
@XingR-ew3jx
@XingR-ew3jx Ай бұрын
能个人普及才是正道,少数人的东西终将被淘汰
@땡-k5w
@땡-k5w Жыл бұрын
"讓人類在即將到來的AI時代多幾分勝算",這句我直接起雞皮疙瘩!!
@aaatmy
@aaatmy 5 ай бұрын
之前自己測試結果,跑是跑得動大模型,但是跟真的GPU相比速度慢很多。但至少還能開就是,一般情況下是連開的機會都沒有
@yuntengg9392
@yuntengg9392 Жыл бұрын
但苹果统一架构的缺点是意味着更新换代变得更为复杂,所以更适合的是普通个人研究者,对于商用级的来讲,技术迭代需要不停的更换显卡仍然是模块化更合算
@崔高峰-x7p
@崔高峰-x7p Жыл бұрын
普通人觉得复杂,商用来说算不上复杂,硬盘也是嵌入到了主板 还不是被破修电脑的破解了,
@Physbook
@Physbook Жыл бұрын
确实苹果的支持周期是越来越短了
@Physbook
@Physbook Жыл бұрын
egpu的drivers也跟不上了
@jameswoolf1440
@jameswoolf1440 11 ай бұрын
建议不懂的话别支声比较好,有钱买卡没钱买ultra属实是脑回路有点清奇了
@markchen6549
@markchen6549 2 ай бұрын
一年後再回來看這個影片,林哥是真的神
@fant4we998
@fant4we998 Жыл бұрын
超大規格的模型推理速度同樣重要,m2u現在顯然還沒法跟nv比,而且推理這樣的場景更多是在服務器上進行的,這樣的機器無論是做訓練還是推理服務都不太適合
@chrislin4540
@chrislin4540 Жыл бұрын
Apple在雲服務上根本沒巿佔
@bardeebooboo
@bardeebooboo Жыл бұрын
​@@chrislin4540也可以說,根本沒有相關業務😅
@sanwu9087
@sanwu9087 Жыл бұрын
@@bardeebooboo nv每年投资几百亿美金可不是闹着玩的. . .不说最新的DGX . 连A100的尾巴都摸不到
@jerryhuang3565
@jerryhuang3565 Жыл бұрын
就是知道怎麼用m2u,也不會好心的浪費時間教你。
@BBQChris
@BBQChris Жыл бұрын
开局就有两张鬼牌,你还想怎么样
@MobileAngel
@MobileAngel Жыл бұрын
终于有人讲M2 Ultra的AI功能了!!!!!感谢!!!
@林雨希
@林雨希 Жыл бұрын
這樣看起來,統一架構根本超適合汽車的自動駕駛。 因為汽車既需要AI進行自動駕駛,又能提供一定的空間和負重,以及進行一定限度的穩定供電。 雖然單機遊戲可能不需要這個架構,但明顯每家運輸公司和汽車製造商都需要這個架構。 怎麼算都是比遊戲產業,更大的市場。 結論:新時代要開始了!
@老馬夜
@老馬夜 Жыл бұрын
以前 TESLA是用NVIDIA晶片 後來嫌太慢改自研,不過TESLA HW 4.0 雖然是ARM,外觀看起來不是統一架構上面還一堆記憶體,而且用的應該還是舊的A72公版設計。
@林雨希
@林雨希 Жыл бұрын
@@老馬夜 特斯拉終究比不上Apple啊!
@Beagle5ce
@Beagle5ce Жыл бұрын
单机游戏可以利用统一内存实现渲染数据零拷贝.大幅提高游戏运行速度.
@林雨希
@林雨希 Жыл бұрын
@@Beagle5ce 感覺可以,但可能會失去擴充性和維護性,如更換硬碟和外加記憶體之類的,讓遊戲廠商較難用現有的商源來壓低生產成本。
@Beagle5ce
@Beagle5ce Жыл бұрын
@@林雨希 嗯,是的,HBM3 内存就不存在什么扩容升级了. 不过你看 XBox 和 PS也没法扩容内存,但不影响游戏开发者的热忱. 这玩意儿还得是降低了成本普及后才能有用.
@rnoro
@rnoro Жыл бұрын
感謝林哥的分享!林哥的ai影片很有意思也很深入,沒有一般頻道的瞎捧亂吹,很是接地氣的說ai能做的以及ai不能做的,支持這樣優質的頻道和影片!不過還是私以為語言模型只是第一步,指出語言才是作為資料壓縮表示的最佳方式而不是現有的各種模型,所以這不是終點--恰恰相反--這才是起點。
@travorshin
@travorshin Жыл бұрын
Mac十年老用户觉得,苹果现阶段最伟大的东西真就是M系列芯片以及它对Desktop带来的影响
@拉雞毛
@拉雞毛 Жыл бұрын
有時候覺得是桌機生態的鍋,主機板記憶體顯卡養活多少廠商,如果全部壓縮到剩下一顆soc的大小,很多廠商都不用活了
@travorshin
@travorshin Жыл бұрын
@@拉雞毛 认同+1
@Tung-ChenTsai
@Tung-ChenTsai Жыл бұрын
我倒覺得對Laptop的影響更大得多
@orbleh3622
@orbleh3622 Жыл бұрын
苹果最大贡献在抛弃intel,让intel大力地踩了一下牙膏管。苹果那种系统封闭让我不爽,永远不会去买它,看一眼都输,不过要是有人送个m2的机子我还是会用的,立刻装个linux。
@LeoCheongK
@LeoCheongK Жыл бұрын
全部集成到一個片上半導體晶片產業的最終目標, 很早就想這麼干了, 只是晶圓級封裝還做不到. 直到台積電做出了CoWoS......就是我們現在看到的蘋果M系列了
@jinitung782
@jinitung782 Жыл бұрын
謝謝分享,內容真的很精采,也很充實
@edwardliu3387
@edwardliu3387 Жыл бұрын
有点好奇 LLaMA 是怎么与中文LoRA 权重计算合并的。
@edwardliu3387
@edwardliu3387 Жыл бұрын
是不是softmax 拿到attention distribution,在weighted sum?
@huohsien
@huohsien Жыл бұрын
跑起來了。Mac Studio with M2 chip and 192 G RAM. 除了 requirement.txt 裡面的東西之外還需要安裝: tensorboard 應該就不會有錯誤開始訓練,不過我現在還在: "Wrapping the env in a VecTransposeImage." 這一步
@lowsfer
@lowsfer Жыл бұрын
首先没人用4090训练大模型训练,40系消费卡是大幅阉割了显存位宽的,不适合做ai,比3090还不适合,就是个游戏卡.勉强跑跑推理还能凑合,训练就别想了.其次M2 Ultra大概1TB/s的带宽,也就跟砍完了的4090差不多,想搞大模型也就娱乐一下.大模型训练根本不可能用单卡,就算你有192GB也远远不够.NV的训练卡,卡间互联都有接近1TB/s的带宽,也能互相访问. 你真想用统一内存,Grace Hopper的显存内存也能互相用并且保证一致性. 如果只是想内存当显存用的话,CUDA也多年前就支持了锁页内存和统一内存. 至于巨大单卡显存的AI卡,在chatgpt火之前就规划了90+GB的卡,chatgpt火了之后你猜NV有没有准备出更大的? 如果仅仅想靠几个硬件参数超越就能干掉nv的话,amd和一众ai芯片公司早就办到了.苹果的搞搞toC市场的那部分推理就行了,训练这种主要toB的市场不敢说未来不会出现新的有力竞争者,即使有,也不太可能是苹果.苹果自我为中心,用户得按我的想法使用.这套逻辑,做toB业务根本行不通.大客户们会教育你谁是大爷,就算是NV,H100/A100训练卡现在一卡难求,也得跪舔大客户.NV里面最大的团队就是服务大客户做技术支持的.
@JasonYu-bf3le
@JasonYu-bf3le Жыл бұрын
3090和4090的显存位宽不都是384吗
@frankyang1184
@frankyang1184 Жыл бұрын
@@JasonYu-bf3le 4090砍了nvllink?
@李妍芯-w8z
@李妍芯-w8z Жыл бұрын
@@frankyang1184 消費級卡皇 RTX 6000 ada 也不支援NVLink
@lowsfer
@lowsfer Жыл бұрын
@@JasonYu-bf3le 90没有,留了点面子,但是显存带宽提升也微乎其微.40系其它的不少都阉割了比如60就是192变128了.走的AMD一样的路子,加大L2缓存,节约显存带宽.只能说对于游戏是个不错的策略.
@Jack-jv4up
@Jack-jv4up Жыл бұрын
toB肯定是老黄的天下,但是toC苹果能这样插一脚进来肯定是好事,不然老黄在定价上肯定会更加得寸进尺
@stock-god
@stock-god Жыл бұрын
无意中刷到这个视频,打开了我的新世界,感谢
@Agameplayer069
@Agameplayer069 Жыл бұрын
系統封閉性和硬件不具擴展性,就已經不會列入商用方案考量, 沒有商用根本不可能挑戰到NV,但有人參一腳總比一家獨大好, 只有林兄這種少數的技術佬知道能怎麼用起來,但也能存在租用商業機去跑的方案, 姑且也不提GPU算力差距和4090是遊戲卡的問題了,相信大部分人真的會被封面誤導。
@秦始皇-h3p
@秦始皇-h3p Жыл бұрын
你的视频 我有订阅😂虽然我听不懂 但是 我就爱听 真的!
@yangchenyun
@yangchenyun Жыл бұрын
fine turning requires running training which are usually one 8x A100 in the cloud. Mac studio ultra's GPU is computation power is not even on par with 3090/4090, this is misleading. The advantage of apple's arch is the size of memory could be shared, but saying it beats Nvidia is exaggerating.
@helloalexlee
@helloalexlee Жыл бұрын
挖到宝了,感觉来晚了,你的视频很好,请坚持分享! 👍
@frankli4124
@frankli4124 Жыл бұрын
好像Mac跑stable diffusion还是很慢,我的3080ti基本上5秒一张,看你那个进度条,估计等它跑完我这边8张也出来了。
@ZechWu
@ZechWu Жыл бұрын
對於我這種技術小白,還是帶來了滿滿的收穫,感謝您
@yuanhu6031
@yuanhu6031 Жыл бұрын
Nice video! Can't wait to give it a try myself, thanks for putting it together!
@YCL-j7t
@YCL-j7t Жыл бұрын
试试Mac PRO工作站版,看能不能让前面那三个大风扇转起来
@seanfu522
@seanfu522 Жыл бұрын
想聽林老師多談「精調」的細節,我未來想開發遊戲,本身也有在撰寫劇本,想了解AI如何幫助編劇和演員創作,又如何加入到遊戲之中。
@wangjialei1985
@wangjialei1985 8 ай бұрын
不知道像sora这种,以后有没有机会可以本地化而不是去用大公司的这种,😂,我不担心付费,我担心它模型本身就预设了很多限制不能做😅
@cjli8733
@cjli8733 Жыл бұрын
出於對物理學的尊重 我建議有意買頂規mac studio來玩LLaMA的朋友 先去國外論壇看看會發生什麼事
@mrkokobebe
@mrkokobebe 3 ай бұрын
Stable diffusion 在mac 還是要等很久,12g 顯存也能同時抽8張,但實際應用同時出四張已經好夠用,用mac 抽一次4張,N咭已經抽了4次4張,現階段是不用花6萬買studio 做 stable diffusion 的,不用亂花錢去製造不需要的需求,其實8g顯存也能抽4張小圖,再用放大模型放大也可以,如果需求只是為出圖,一般遊戲筆記簿也能做到
@lw2519
@lw2519 Жыл бұрын
16:51 这句话真的太特么对了。 保持开放,兼容并包,比画一个小圈子大家互相赞同好太多了。(B 站和 Y 站都关注了
@slnstzn676
@slnstzn676 5 ай бұрын
正确的
@yinkj
@yinkj Жыл бұрын
点赞收藏,必须!退休多年,深知我的计算机网络知识已经彻底过时了,未来是你们年轻人的天下了
@leedavid5214
@leedavid5214 Жыл бұрын
我非常羡慕你对各种AI信手拈来+超强的动手能力。 我怎么能学成你那样?
@pp90djask2idjk
@pp90djask2idjk 11 ай бұрын
请问mac studio已经不错了,请问您有没有考虑将Mac Pro用于机器学习或AI?出了笨重以外,是不是Mac Pro还是好一点?另外Mac Pro最明确的优势似乎就是插卡,请问机器学习方面有哪些卡值得在Mac Pro上插一下 呢?
@stevexkong
@stevexkong Жыл бұрын
😮 16:56 这里林哥你在国内放的版本竟然也是没变啊!!!有点小担心啊
@huazhou1066
@huazhou1066 Жыл бұрын
我林哥的节目永远都是这么干货满满
@bearfish1999
@bearfish1999 Жыл бұрын
終於讓我看到希望了,一直很想擁有自己私人訂製AI,可是苦於沒有便宜的硬體設備 未來培養個AI來陪我打Game的日子越來越近了
@yidweahzaimen
@yidweahzaimen Жыл бұрын
目前4090可以跑7b-30b的模型 但建議跑6b-13b 再上去反應就不能即時了😊
@kkhc1068
@kkhc1068 Жыл бұрын
kzbin.info/www/bejne/bpjHkIqqd7Wrl9k 技術上可行!
@hanklintwtw
@hanklintwtw 11 ай бұрын
@@yidweahzaimen現在那個好呀
@huohsien
@huohsien Жыл бұрын
我好不容易找到你的github 然後要在我的Mac Studio m2 192G 上面跑跑看, 不過很明顯,按照github 的readme 不會work,PyTorch 上面特別寫了 -c nvidia。 請問大神該如何處理?能不能branch一個 給蘋果M2 的版本。 看了你的影片,很高興去買了這台機器,然後想說來做個baseline 無腦跑跑看…撞牆了 >
@jerryhuang3565
@jerryhuang3565 Жыл бұрын
其實業內都是鬥而不破,業內很清楚很多方法能完虐GPU,所以NVIDIA得用很多廣告與網軍來洗,看留言就知道有些人就是來洗的,不過林哥說破,我真是覺得你很有勇氣,你會遇到一堆攻擊
@Jacqueline-jw
@Jacqueline-jw Жыл бұрын
thanks for sharing! 内容非常硬核
@阿霖-e1h
@阿霖-e1h Жыл бұрын
現在主流是跑壓縮過後的模型 運行速度快得多 占顯存大小只有3分之一左右 模型品質差距只有千分之5左右 像65B模型4bit壓縮只要48g的ram可以跑 最近又多了exllama的黑科技 可以用更少的顯存(大概比原本少4分之一)速度卻快出2-3倍 現在AI大模型進步得很快 幾乎每天都有新技術的論文冒出來 而192GB的RAM可以給以後出現更大的模型跑 或是跑更長的上下文 過去開源模型能跑的上下文是2048T 代表你超過這個範圍的文字他就忘記了 但現在有技術把上下文大幅提高到16384T 但代價是需要用更多的RAM
@ArisHuang-m5h
@ArisHuang-m5h Жыл бұрын
目前手機也有這類技術,前陣子谷歌發的,能用在ios或高通android
@ck-dl4to
@ck-dl4to Жыл бұрын
壓縮技術的發展對應的是低成本 LLM,訓練本地模型成為學生作業
@wwxyz7570
@wwxyz7570 3 ай бұрын
Llama 3.1 405B模型IQ3就有200GB了
@wadewade2221
@wadewade2221 Жыл бұрын
想請問林亦哥 這Mac Studio 能直接裝或要怎麼裝在一般win10 pc上呢? by平常工作是AI美術的程式小白… 現在太常跑AI看到這東西簡直心動極了 怎樣都想買 就怕買了裝不上或不會裝 稍微查了一下 Mac Studio 就是一台電腦主機的意思?
@lyi
@lyi Жыл бұрын
是的,Mac Studio本身是一台電腦主機。我不建議現在就因為視頻里展現出來的能力選購這台設備,因為目前蘋果電腦AI領域還有很多基礎工作要做,視頻里展現的軟件都是經過了複雜的操作過程才運行起來的,目前還沒有成熟可用的方便軟件,可以再觀望一下。
@ethanzou4993
@ethanzou4993 Жыл бұрын
感谢分享这么详细的测试,目前这方面的比较很少有人做,很有帮助。请问mac studio vs mac pro 对于同样是M2‌ Ultra chip 有什么区别吗?
@ben_fang
@ben_fang Жыл бұрын
Mac Studio和Mac Pro主要还是拓展性的区别,按照Apple官网的描述,二者使用的Chip是一致的
@maximizedchen6875
@maximizedchen6875 Жыл бұрын
博主觉得个人计算设备会是未来还是人工智能云上训练会是未来啊?
@deathnote7741
@deathnote7741 Жыл бұрын
我实验室老板去年给我配了个m1ultra顶配 就是为了让我做这些。。
@kimbakryeon1365
@kimbakryeon1365 Жыл бұрын
牛逼 等到了😊
@al-tes
@al-tes Жыл бұрын
補充兩點吧,training和inferencing需求的內存是不一樣的,192GB應該只夠訓練7B的llama;33b llama quantized只有20多G,不過目前應該只有cuda的實現
@嘿我是一只咸鱼
@嘿我是一只咸鱼 Жыл бұрын
總算看到糾正的人了 我看影片也很疑惑 inference 如果是33B 4bit精度 不就十幾GB顯存嗎怎麼會用到100多G 但7B應該不至於 A100單GPU就可以跑得起來7B了 如果是用lora的話 感覺192GB可以訓練到33B沒問題 全參訓練的話或許用個deepspeed也可以試試
@wwxyz7570
@wwxyz7570 3 ай бұрын
@@嘿我是一只咸鱼那Llama 3.1的405B FP8模型怎麼推理,你想過沒有?
@rkao7485
@rkao7485 Жыл бұрын
Thanks for all the detailed explanation. Love the video!
@LaoZhao11
@LaoZhao11 Жыл бұрын
蘋果這顆CPU社群越來越活躍,猛
@simonhung407
@simonhung407 Жыл бұрын
很有誠意的交流
@williammau21
@williammau21 Жыл бұрын
大膽預測 DDR5 是最後一代獨立 RAM 獨顯除非特殊需求, 否則從消費級市場消失 未來 Intel、AMD 會整合 DDR6/HBM RAM 和 GPU 把最高階的 GPU 直接整合進 CU9、R9 Nvidia 則是把其 ARM CPU 整合 GPU 打入桌面、筆電市場 不幸的是未來的自組台式機 可玩性會大大降低 主要零件就剩下 6 件 #SoC (CPU+GPU+RAM 廠商幫你配好等級相當的組合 價錢決定綜合性能, 不能呂布騎狗) #散熱器 (塔散、水冷 一次過冷卻 CPU、GPU 和 RAM 未來的台式機仍能超頻 因此散熱也很重要) #儲存 (SSD、HDD) #主機板 (決定供電和 I/O 部分主機板提供 PCIe 插槽 讓特殊需求人士加裝獨立 GPU、網絡卡或 RAID 卡等 SoC 插槽跨廠商通用 [Intel、AMD、Nvidia、高通 etc...] 而且如無意外永遠不再換代 因為 SoC 本身已經是一台完整的電腦 主機板只承擔連接供電和擴充的角色) #電源 (供電) #機殼 (決定散熱、I/O 和外觀)
@ロ.リ.一番大好き
@ロ.リ.一番大好き Жыл бұрын
這方案感覺可行但考慮到3D渲染時GPU 的核心需求要遠大於顯存那個發熱可不是鬧著玩的
@ロ.リ.一番大好き
@ロ.リ.一番大好き Жыл бұрын
以PC平台的可自訂性感覺出個ai專用運行卡,就像當年出顯卡一樣
@ロ.リ.一番大好き
@ロ.リ.一番大好き Жыл бұрын
考量其特殊性可能的型態可能會是低階核心搭大顯存,比如50/60級別的核心搭200GB顯存,這種搭配看似魔幻但如果考慮要人均本地ai的話是似乎是比較合理的搭配
@shaoseki4552
@shaoseki4552 Жыл бұрын
估计台式机上的DDRAM不会消失,但是很可能的是,下一代运存不再跑现在的DRAM插槽,而是整合成能兼供CPU与GPU直接访存的IO总线硬件,比如PCIe6或者特化的PCIe5-ram,毕竟把台式机的DRAM和主板或者CPU绑定,那么OEM就失去意义了,都买Apple这样的预配置Mac就好了,但事实是市场的需求不会这么单一。PCIe的巨大并行总线带宽以及拓展卡的体积,反倒是能很好地提供解决方案。除此之外,处理器的超频潜力应该是更加朝向“出场即灰烬”的方向发展的,所以散热依然会是桌面PC的重要部件,但是估计超频就只是富哥发烧友的游戏了。
@ロ.リ.一番大好き
@ロ.リ.一番大好き Жыл бұрын
@@shaoseki4552 這方案感覺也不錯,雖然變動大了點但可發展性感覺更好
@johniii9130
@johniii9130 Жыл бұрын
讲得早了!等十年后看看结果如何
@b58703137
@b58703137 Жыл бұрын
丟失的數據變成熱量噴掉了,500W噴掉的熱量肯定比200W多了 自然風扇要更賣力
@cocomanlin
@cocomanlin Жыл бұрын
又等到林哥的影片了,我覺得這樣的模式也不錯,讓我們可以了解林哥的想法,也可以增加一些知識。
@风灵-n1d
@风灵-n1d Жыл бұрын
新MAC studio这些方面的确很强,但是赞一踩一的对比方法令人生厌,拿3080TI+12900K和6W RMB/8.3K USD起步还是新发售的MAC studio 做对比,A40单张2.5W不到,两张+NVLINK也有96GB显存,单精度还是两倍以上
@hongs7048
@hongs7048 Жыл бұрын
問個問題為什麼不是拿最新顯卡比較?
@ssdafdsf6572
@ssdafdsf6572 Жыл бұрын
是的,a100是训练推理都很快的,mac目前在训练上速度堪忧
@jpgunman0708
@jpgunman0708 Жыл бұрын
如果你愿意寄给博主4090ti+13900k的gpu,cpu,博主会很高兴帮你测的,别问为什么博主只拿3080ti+12900k,问就是没钱😅
@mungbeanouo
@mungbeanouo Жыл бұрын
他沒拿192G其他全低配版studio 出來,那台才17w多台幣,相當於3w多 RMB
@风灵-n1d
@风灵-n1d Жыл бұрын
@@hongs7048 最新消費級顯卡卡皇 無論是RTX4090或RTX 6000 ADA 都不支援NVLink,這會讓多卡效率下降
@barryzhong1980
@barryzhong1980 Жыл бұрын
林神太帅了,难怪苹果在这次发布会在 AI 这个方面这么低调,原来是躺赢那个。啥时候给讲讲 Coding 在 Mac Studio 上的当前最好效果?
@zhongkaifu8161
@zhongkaifu8161 Жыл бұрын
其实老黄的Jetson系列也是统一内存架构,只不过目前最大的是Jetson AGX Orin 64GB,是基于安培架构的。因为有CUDA生态加成,非常好用。希望M2 Ultra能够激励一下老黄,搞出更大内存版本的Jetson产品,哈哈哈~
@aikenqi8353
@aikenqi8353 Жыл бұрын
GH200已经有了
@zhongkaifu8161
@zhongkaifu8161 Жыл бұрын
@@aikenqi8353 但是太贵了,Jetson系列还是比较便宜的,便宜的100多块钱,目前最贵的AGX Orin 64GB也就1999。
@mesiki7077
@mesiki7077 Жыл бұрын
苹果做的是消费级产品,恰好给大模型提供了大显存。而老黄的消费级产品是游戏显卡,要搭配强劲的CPU一起用,而老黄收购ARM失败,没法提供CPU+GPU封装到一起的方案,所以老黄的消费产品线还是没法提供统一内存方案。
@zhongkaifu8161
@zhongkaifu8161 Жыл бұрын
@@mesiki7077 老黄已经有统一内存方案了啊,基于Tegra SoC系列的就是。经典产品Jetson系列,还有就是任天堂的Switch游戏机也是基于Tegra的
@mesiki7077
@mesiki7077 Жыл бұрын
@@zhongkaifu8161 ARM的SOC就是统一内存架构,苹果只是恰好赶上了。
@andrewpang7343
@andrewpang7343 Жыл бұрын
各位大神,小弟bg空白想學習machine learning和AI。請問該從何處學起呢?有推薦的資源嗎?
@kakashi-md2st
@kakashi-md2st Жыл бұрын
全村的希望是存算一体结构。苹果统一内存感觉只是一个过渡!
@Beagle5ce
@Beagle5ce Жыл бұрын
存算一体,冯诺依曼架构就得要升级了.不过确实是事实,全村的希望是存算一体架构.也就是神经元芯片架构.
@sunyu777
@sunyu777 11 ай бұрын
如果我不懂编程,买一个ultral 也可以自己组合不同的语言模型吗?你说的这个方案太诱人了!
@君喆魏
@君喆魏 Жыл бұрын
老黃的CUDA生態系壁壘即將倒下,AMD也終於可以透過ROCm適配CUDA優化了,加上AI加速單元性能也因為最近一版的驅動終於快要發揮出應有的性能了,期待蘋果跟AMD夾擊下老黃可以不要對消費者這麼過分
@大熊-u4t
@大熊-u4t Жыл бұрын
@@Live-20236只要nvidia赚的钱够多,云计算巨头就越有动力搞掉cuda,如果nvidia主动降低利润,反而别人没动力去和nvidia竞争
@terryjoun1687
@terryjoun1687 Жыл бұрын
40萬的ultra ,本質上就是八卡的價了(4090 5-6萬/張),當然因為一體架構他沒有損耗問題,而八卡有(該死的nv這次拿掉了SLI通道平民卡根本沒法拼帶寬)
@SuccubusStudio
@SuccubusStudio Жыл бұрын
賈伯斯1984年就在幻想打敗權威了,過去了40年還是只能當文青機。一大部分原因也是因為果粉太好騙了,上什麼菜就吃什麼,蘋果給什麼我就做什麼,蘋果沒給的就是我不需要的,主攻這種客戶,能打敗才有鬼。wintel是直接背負人類的運算文明好嗎。
@hardyhuang561
@hardyhuang561 Жыл бұрын
@@Live-20236 CUDA應該已經不會倒下,只是會慢慢被排擠掉,以前沒人競爭不過未來可多的,CUDA若你用夠久,也知道他問題多到足夠讓你罵一整天
@LightnessRevant
@LightnessRevant Жыл бұрын
你想多了 沒人用的東西多好用都沒用
@Ouzakenishigi
@Ouzakenishigi Жыл бұрын
能请您出一个关于AI本地部署在MAC上的系列教程么,很想学习!
@binaryutopia7946
@binaryutopia7946 Жыл бұрын
专业人士估计也就看个乐😂 ram和算力直接划等号还是有点鲁莽; 训练时候除非gpu算力已经被拉满,否则不一样的batch size不能比啊; llama inference跑起来了和finetune是两码事 …
@kakashi-md2st
@kakashi-md2st Жыл бұрын
您有一点没有提到,大模型怎么来的?不能只复制和微调吧,如果要训练,就需要成百上千台M2Ultra的算力,成本能下来一点,但是平民还是负担不起。只能这么讲,计算(推理)可以进入平民家,但是训练还是有壁垒。
@hardyhuang561
@hardyhuang561 Жыл бұрын
你看微軟跟ChatGPT都開始自己弄晶片,google更簡單,他們早就有TPU,因爲GPU本來就不是跑深度學習,只是學校老師的時代,只會用英偉達的GPU,我看有些人還把無知當技術壁壘,真覺得若這是台灣普遍知道的AI訓練方式,那很危險,表示知識不只落後幾年的問題,而是完全沒搞清楚,即便做起來也會很快垮掉。
@ck-dl4to
@ck-dl4to Жыл бұрын
然後 CUDA 天下第一,真的無語了,很多人喜歡當半瓶水
@jerryhuang3565
@jerryhuang3565 Жыл бұрын
真的長年深入做深度學習的人是少數,CUDA終究是入門,就好比家用電腦是windows,但業界真正在用的全以unix子孫為主,你會看到一堆半瓶水的一直喊windows第一,但你也只能笑著看他們
@tslxt
@tslxt Жыл бұрын
看视频说的挺热闹的,但是有个最重要的问题,就是大模型训练问题,这个m2 ultra 192GB的能训练大模型吗?来个简单点的,SDXL 1.0的训练,这个价值6w的机器能训练不?我现在不知道苹果出个这么牛的机器就是为了跑自己家的那个全家桶软件吗?大模型训练可以直接按照云训练的方式,按需付钱就行,那么这个性能怪兽能做点啥?就是用自家全家桶剪视频快吗?
@wwxyz7570
@wwxyz7570 3 ай бұрын
SD不是大模型,模型連10GB都沒有。真正的大模型是Llama 3.1 405B,IQ3 GGUF後的模型大約160GB,你用A6000都跑不了。
@jjccyyy
@jjccyyy Жыл бұрын
太厲害,謝謝分享~~ 但要達到一般人都能使用的價格,還要一段時間,畢竟現在還是幾家龍頭控制,AI發展過速,不同國家都只會立不同的圍牆,控制使用~~
@poterliu
@poterliu Жыл бұрын
老哥终于来了
@ImprovingTaiwan
@ImprovingTaiwan Жыл бұрын
期待『林大仙』用兩套系統訓練同一個ai下棋還是對打遊戲,看是不是在同一個ai但不同訓練之後有差異……
@arthaschen4701
@arthaschen4701 Жыл бұрын
不愧是说简中的博主
@codingapi8073
@codingapi8073 Жыл бұрын
看完以后,瞬间感觉自己买的macbook pro 32GB,显存不够用了。。。
@JSiuDev
@JSiuDev Жыл бұрын
@lyi 配上英文字幕,應該會超多人看。我沒找其他人(英語)用M2 Ultra講這個。你是現在的唯一。👍
@bookerx20032002
@bookerx20032002 Жыл бұрын
每個人都能低成本的訓練AI模型真的是很誇張...
@trumpyang6477
@trumpyang6477 Жыл бұрын
六萬人民幣算低成本嗎
@黄品曦
@黄品曦 Жыл бұрын
我個人不瞭解,我衹是一個普通的攝影,我可以說這種事情的存在是降低入門門檻
@陳伯安-w7t
@陳伯安-w7t Жыл бұрын
應該說降低成本啦! 因為企業卡真的很貴一張都20-30W起跳(6000 Ada)
@累得像條狗
@累得像條狗 Жыл бұрын
@@trumpyang6477 以商用來說,根本不是事
@xinzheng1617
@xinzheng1617 Жыл бұрын
用这玩意儿训练大模型,我只能说依托答辩
@caivinnie6573
@caivinnie6573 Жыл бұрын
如何自己搭建AI学习环境?林老师可以分享一下吗
@kewan001
@kewan001 Жыл бұрын
8张4090显存拼接到192,但算力单元是8倍呀!虽然跨显存交互,性能打折,但总算力也会比m2 ultra高很多吧
@chou00088
@chou00088 Жыл бұрын
但總價格至少比蘋果高兩倍
@SuccubusStudio
@SuccubusStudio Жыл бұрын
@@chou00088 價格高兩倍,算力是96倍喔
@Jack-jv4up
@Jack-jv4up Жыл бұрын
你先拼一个能插8张4090的电脑我看看长啥样
@Jack-jv4up
@Jack-jv4up Жыл бұрын
@gapo-jx9nm a100多少钱嘛,普通消费者可能会咬咬牙冲m2 ultra,也不会考虑维护麻烦的服务器的
@smithjohn7595
@smithjohn7595 Жыл бұрын
@gapo-jx9nm 厉害了,12000的笔记本,就能有64G显存?
@展豪虞
@展豪虞 Жыл бұрын
林老师,能不能分享一下关于ai和金融结合的一些github的一些工具等的知识,谢谢🙏🙏
@aa-ng1uk
@aa-ng1uk Жыл бұрын
感覺不太行哦,比了半天結果只是記憶體大一些而已,推算速度比皮衣黃的4090慢了很多,甚至可能比我淘汰下來的3060還要慢,如果放到訓練的話差異應該就更大了,可能用4090半天能訓練出不錯的模型,結果換上M2U可能反而要跑四五天不帶停才行。光是記憶體大一點對大部分人來説應該差別不大,Apple在算力方面還需要在加吧勁才行哦。
@codepunk4291
@codepunk4291 Жыл бұрын
全靠社区大哥的结构优化,开源万岁!
@henryrenyz7232
@henryrenyz7232 Жыл бұрын
希望苹果加大力度,不然皮衣刀客什么时候会出80g游戏卡
@hsiajui-kai1580
@hsiajui-kai1580 Жыл бұрын
感謝林亦的無私分享
@h53006157
@h53006157 Жыл бұрын
Windows系統的用戶對現在顯卡價格心寒,蘋果和AMD加油
@yueid6309
@yueid6309 Жыл бұрын
其實我覺得還行吧,我可以很認真和你說20系卡給我玩遊戲性能都過剩
@dxhj6380
@dxhj6380 Жыл бұрын
​@@yueid6309 感覺遊戲特效就是個無底洞,要是再搞個4K可受不了
@ai8989889
@ai8989889 Жыл бұрын
追求高的4090都餵不飽 普通用家真的就2060都過剩
@huatzh
@huatzh Жыл бұрын
话说这些都是针对本地服务器。问下,如果只是好奇想学一学,但是却不常用的话,同样的ai架构在云服务器会不会比较便宜? 有哪个特别方便的推荐吗? 毕竟,电脑的更新差不多每年都有。
@黃柏舜-p6m
@黃柏舜-p6m Жыл бұрын
想太多了😃
@carsdailyhk
@carsdailyhk Жыл бұрын
林哥,入門學習AI你會更推薦組普通GPU x86還是直接用M2 MAC?我只有一台3060的筆記本,運行過一些object detection的視覺AI。如果要更系統更深入學習AI開發,你會建議購置x86還是m2?
@OneOfKevin
@OneOfKevin Жыл бұрын
真是想不到有這種進展啊
@victor21cn
@victor21cn Жыл бұрын
可以跑text-generation-webui和一些比较流行的开源LLM吗? 比如MPT-30b或者Falcon-40b? 速度如何?
@悠悠-d6u
@悠悠-d6u Жыл бұрын
M3因該會擠一波大的提升。
@kuroyurimusashi3843
@kuroyurimusashi3843 Жыл бұрын
有点好奇老师那一台windows主机的机箱和配置是啥样,这种下落led的装饰好极客,不知道往期视频里有没有介绍过?
@ai8989889
@ai8989889 Жыл бұрын
跳出个程序员:我改了下程序适配苹果的GPU 结果比N卡效率高多了 苹果:我自己都懒的去适配 你这样搞的我和N家都很尴尬的啊 老黄这不怪我啊 是路人搞事啊
@whatthefucksay__
@whatthefucksay__ Жыл бұрын
😅你有看懂嗎,蘋果就是放接口出來給開發者適配的,兩方做的事都不同,蘋果開發,開發者應用
@ai8989889
@ai8989889 Жыл бұрын
@@whatthefucksay__ 不一定的 昨天看了一個視頻 苹果推出了一個Game Porting Toolkit 讓開發者把windows的遊戲直接移植到MAC運行 不是說只能是開發者去適配MAC 苹果也能去適配開發者
@hongtaoliao6794
@hongtaoliao6794 Жыл бұрын
请问可以做一期如何搭建本地这个ai bot 么
为什么C口数据线越来越乱?
14:26
林亦LYi
Рет қаралды 97 М.
【亦】x86已死?
23:22
林亦LYi
Рет қаралды 444 М.
Don't underestimate anyone
00:47
奇軒Tricking
Рет қаралды 24 МЛН
The Ultimate Sausage Prank! Watch Their Reactions 😂🌭 #Unexpected
00:17
La La Life Shorts
Рет қаралды 9 МЛН
Players push long pins through a cardboard box attempting to pop the balloon!
00:31
一口气看懂GPU生意:为什么英伟达能一家独大?
18:11
矢板明夫说三道四:苗华倒台的重大意义
9:33
美国之音中文网
Рет қаралды 137 М.
深度解读:光刻机卖不动,为什么台积电却赚麻了?
19:42
万字解析!库克终于把乔布斯的iPhone 4S做完了?
33:08
AI战争:消灭谷歌暴政,搜索属于微软!
39:30
林亦LYi
Рет қаралды 205 М.
Don't underestimate anyone
00:47
奇軒Tricking
Рет қаралды 24 МЛН