【漫士科普】90分钟深度!一口气看明白人工智能和神经网络

  Рет қаралды 66,400

漫士沉思录

漫士沉思录

Күн бұрын

Пікірлер: 135
@mchael.z8411
@mchael.z8411 11 күн бұрын
全称认真看完,通篇没有废话,超级干货。感谢作者费心了
@user-12669
@user-12669 Ай бұрын
这期视频是本博主有史以来最好的一期作品,没有之一❤❤我不管别人怎么评价,我是一定会尽最大努力都推荐我所认识的朋友来看本期内容❤❤,本期节目深入浅出,鞭辟入里,而且很好的照顾到了非人工智能,及非计算机专业学生,相关基础知识的准备和铺垫也做得非常充分,为了帮助理解,视频中列举的例子也非常恰当❤❤,能把如此艰深的内容讲的通俗易懂,博主是下了十足的功夫去简化表达。“人工智能”和“神经网络”这些名词如今已被各个媒体滥用,很多人不懂装懂,也开口闭口用这些名词包装自己招摇撞骗,但是你问他们,神经网络到底是如何运作的?底层原理是什么?他们立刻哑口无言。那些假货博主在本期视频面前绝对会相形见绌,无地自容。
@量子-z6t
@量子-z6t 27 күн бұрын
可否再做一集關於里奇流ricci flow和深度學習之關係?
@michaelzap8528
@michaelzap8528 22 күн бұрын
没有。我可以比他解释得更好,尽管的数学和IT停留在初三毕业生的阶段。他对深度网络的解释是人云亦云,对大预言模型的理解基本是不知所云,都没有直捣黄龙,说到点子上。
@user-12669
@user-12669 22 күн бұрын
@@michaelzap8528 你如果认为你可以解释的更好,那也可以做节目,把你更好的理解展现给大家,做自媒体科普节目,就是市场竞争,你如果能做得更好,那当大家也可以都去你那里看对吧。
@user-12669
@user-12669 22 күн бұрын
@@量子-z6t 这个你可以和漫士说一下,和博主联系沟通一下。
@marcoinbox
@marcoinbox 6 күн бұрын
這是我看過,最利害的AI講解。太用心,不得不推,並作人生第一次留言稱讚
@alexschindler1478
@alexschindler1478 Ай бұрын
这个内容实在是太好了,把领域内最精华的信息搜集在了一起,又以非常巧妙的方式排布,应该说让尽可能多的人能听懂。
@Lancelot2180
@Lancelot2180 Ай бұрын
這集內容太好了太棒了 真的是集大成者 在網上看了應該近百部影片 這部應該是第一 沒有之一
@kenwong91313
@kenwong91313 2 күн бұрын
虽然一些知识点不完全看懂或想通,但还是感受到了作者的用心和真诚。这是人类的判断,不是AI的判断。 😂😂
@aaroncheng130
@aaroncheng130 2 күн бұрын
看第一眼還以為是以3blue1brown那一系列影片為基礎的翻譯講解,但看了之後真的是很紮實的內容。舉例和比喻簡單易懂,還有很多幽默的梗讓我笑出來,有很多之前對AI有些模糊的概念更清晰了,看完真的收穫很多,謝謝。
@WaterMaitreya
@WaterMaitreya Ай бұрын
你的这个视频太好了,特别是关于人工智能的本质思考。你其中提到的几个问题,我还在思考🤔我也做了几个介绍诺贝尔奖的视频,我觉得这次的物理,化学奖就是对人类最顶尖智慧的碾压。本质上就是把化学奖授给寄宿在人类身体中的人工智能体。最直接的证据就是化学奖,大卫贝克以前一直致力于用计算方法预测蛋白质结构,但都没有突破,直到使用了神经网络人工智能,突然就成功了,把文章发表在《科学》上。google的两个在蛋白质折叠上就是入门级,在人工智能上也就算高级程序员。但是用了人工智能,一下就能解决蛋白质结构预测,文章发表在《自然》。但是最关键的是,就是它们使用人工智能解决了蛋白质结构预测,人类,包括它们三个得奖者,仍然不懂蛋白质是如何折叠的。
@tcw0208
@tcw0208 9 күн бұрын
比起生硬的公式,這部影片更著重在概念和演進,為了解決a問題研發出了a方法並產生了b問題,而後又發明了b方法解決,環環相扣缺一不可,之前學了一個學期也沒很懂,聽你這麼一講感覺就通了,up主真的太厲害👍👍👍
@Victor-cg4hx
@Victor-cg4hx Ай бұрын
老哥 我必須讚揚你這部影片的成果 你絕對是我目前看到 youtube 上面講得最清楚的科普AI了
@janchangchou777
@janchangchou777 Ай бұрын
Part 1): 任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….), 以便對一些事件做出精准智能的預測。 所謂自我學習或機器學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的杈重或係數參數而已。 而深度學習也只是處理巨量變數時,為了避免僅用單層機器學習進行巨量變數而需要解大矩陣導致對巨量平行計算的需求,進而變換設計成每層適量變數,建立多層次的機器學習修正。 40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。 在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。 近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。 因此也不用太誇大眼下的AI , 這些早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。 ”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。 何謂知識? 由經驗總結後( 抽象具體化) ,就形成知識(用數字分析的表達方式就是去建構知識模型)。 形成知識後就可複製/ 傳承/ 預測/ 擴展。因此目前的AI 發展,就是在循人類文明發展至為重要的其中的一𠆤過程-只是採用了數位化的方式,將經驗知識化了。 目前的AI 只是以數理統計為手段及方法論,以資訊及計算機工程為工具,進行數位型的經驗知識化的過程。 人類有許多其他不同型態非常複雜的智慧,這種僅止於知識數位化的智慧, 其實離人類多型態的智慧還有非常巨大的距離。 另外, 眼下AI 服務於大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組( 行列式計算), 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。 其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。 只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。 此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。 而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。
@janchangchou777
@janchangchou777 Ай бұрын
Part 2): 另外面對服務大衆的生成式服務,也是要面對大衆各種不同的需求,因此其所需處理消化的資料也是天文數字的龐大,也要各行各業領域專家介入協助指導進而形成並建立大模型。 其實生成式AI 可以理解成升級版的超級搜索引擎,傳統的搜索引擎,用関鍵字/詞,從數據庫內匹配/找出並羅列出可能所需資訊,現在進步升級到如果你給出更具體規範的需求,系統就能從數據庫內拼湊出並提供更完整的接近最終需求的服務內容。這只是把過往已存在的數據庫(已長年經各行業領域專家組維護並梳理過的)更完善的整理優化後予以呈現。而這𠆤更完善的過程使用了大量多層次的統計數字分析的手段。 ****主要在處理序列性高度相關的語言陳述序列,圖像高度相關的像素點関係以及音樂弦律的序列呈現。 相應數理統計的手段主要是使用高度相関的時間序列分析自㢠歸建模。 把這個完善化的過程誇大的比擬成人類的思考及智慧(其誇大的目的-圈錢),將造成極大的誤導。 其實生成式大模型(語言/ 圖像/ 音樂等時間序列高度相關資料)所建立的預測模型, 就是用即存服務於大衆的大型搜索的資料庫,如google , Bing 等等,以數理統計的時間序列分析為核心,結合資訊工程及硬體工程為工具,而進行更貼切於使用者需求的優化過程和結果。所以生成式大模型最終會回到過往提供搜索服務的大型公司的對決。 因此CIC 或是AI 是以特定領域專家組為主導,數理統計為核心,資訊工程及硬體工程都是配合的工具而已。 這樣的發展才會健康/ 不浪費/ 高效率/ 高精確度。 但目前的發展方式, 以資訊工程及硬體工程來主導開發服務大衆的大模型,只是因為這方面天文級別的龐大算力需大資本投入,這是一𠆤比較理想的快速盈利回報的營運方式,但這種情況就會造成眼下嚴重的誤導及錯誤的認知,沒有效率及喪失精準度,甚至如當下出現諸多以提供算力及編程服務的所謂AI 公司出面圈錢的亂象。 其實眼下的蓬勃發展是假象。 不管怎麽發展,從事這𠆤領域研究工作的人不能不具備相關數理統計的知識,也不能缺少專家組對資料的專業的選定/收集/整理。而資訊程序員和電腦只是工具。特別在早期各專業領域內的中小模型的智能發展和恊作,編程只是工具。但當算力上來後,服務大眾的類搜索引擎的生成式及語言大模型,就變得可行了, 但不管怎樣可行,仍是以數理統計為核心,更龐大的專家組仍是關鍵。 只是這種大模型下算力變成稀缺的主要投資成本, 使得這些編程及硬體人員不得不高舉這𠆤旗幟來圈錢, 如果這些編程及硬體人員拿不出這些算力(如果由國家直接投資),他們在整個AI(CIC) 的發展上,根本算不上什麼角色。但這一輪由算力提供方來主導的AI 發展,將會走得很偏,而且會很快撞牆。 這些搞編程所謂AI 專家,其看待事物的内容實在令人啼笑皆非。 譬如: 看到報導某AI 頂流科學家,其模型在AI 大賽中,以16%失誤率, 遠勝於另 一AI 大佬的23% 失誤率,而得到冠軍。 a)殊不知數理統計迥歸分析的誤差要求是5% 甚至到3% , 一個誤差率高達16% 的模型,居然可以拿出來比賽甚至取得冠軍, 真不知這羣頂流AI 的外星兼外行的科學家在玩什麼遊戲?! b)人類智慧的誤失率基本都趨近於零。 任何事務的成果,都不是線性的。 這群AI 科學家居然誤導性的告知世人,宣稱他們現在誤差率已達16 % , 他們離成功不遠了。 殊不知任何人學習或做事務的成果,達到90 分是很容易的,只要多付出就可輕易達成,但90-100 分,那完全不是和努力付出成正比的,那是和天份及其他綜合因素有関,90 分後要再成長其難度是巨大非線性的。 人工智慧的誤失率16% 要成長到 人類智慧的0% 誤失率,給其500 年都難以達到。 另外所謂AI的算力,也多被這些台面上資訊及硬體公司給神話了,整𠆤AI 主要算力在解大矩陣行列式或進行矩陣相乘。 也就是同時或儘量同時計算(平行計算) y 千萬組的 y千萬𠆤數的連乘積或是乘積和。 極其簡單(小學算術程度)但體量龐大的加減乘除。 無任何高深複雜的計算。 GPU 可以當做兼為AI 算力工具,但是GPU 如果僅專用在AI 上,則已是超規格。 因此微軟搞出了這種純滿足AI 小學暴力算術晶片, 或是Tesla 的針對矩陣暴力運算的NPU 。英偉達的GPU一定要小心了,GPU 涵蓋應用面遠大於AI , 如果僅用於AI 算力工作,則晶片設計可採用其他非常簡化有效率的方式,而且成本便宜很多。 未來可能的發展模式: 1) 資訊及硬體工程提供集中算力設備及模型編程的開放平台,供各領域的專家組使用。 有點像當下晶片產業,各應用領域產業由專家組組成公司後,進行各領域的智能開發和應用(如晶片應用的design house,聯發科,海思等 ) , 而算力的提供及收費則由資訊及硬體工程提供(這需要密集资本投入,甚至國家力量投入,如台積電)。 2) 由於網路的高度發展, 另外一種提供龐大算力的方式,是由巨量萬家萬戶閒置PC 𠆤人電腦,各類雲,工作站甚至各𠆤大模型參與分散型算力的提供,恊作,整合,這也是需由資訊及硬體工程來實現的。
@janchangchou777
@janchangchou777 Ай бұрын
Part 3) 另外希能進一步說明為何這一輪由算力提供方來主導的AI 發展,將會走得很偏,而且會很快撞牆? 除在Part 2) 談及眼前這些所謂台面頂流AI 專家或團隊,粘粘自喜於眼前所謂模型誤失率16% , 殊不知在很多專業領域,16% 的誤失率,那可能帶來災難( 金錢損失, 人員傷亡, 大自然破壞) ! 例如,自動駕駛,氣象預報,股票期貨買賣決策等等。即便生成式模型,其誤失也可能帶給人們直接或間接的損失或傷害。 若不是由領域產業專家參與並主導的建模,要突破10% 誤失率,是極其困難的。 我說𠆤故事(不是在炫耀自己的賭技),大家也就明白領域產業專家的重要性。 我2000 年在香港公司上班, 每兩周回深圳家一趟, 每雙周末回深圳前,我會帶2 萬港幣去澳門葡京玩輪盤,每回我嬴到10 萬就走人,由珠海回深圳, 我次次去次次嬴,從沒輸過。 這就是有專業領域人員恊助的建模,誤失率很低,回報很高(投入少收益高)。 機率論是認為發生機率的事件是背後有些不明的隱變數,如果把這些隱變數儘可能的説明白,讓機率性的發生現象就會變得越來越小。 簡單的說,一個銅板正反面,前十次都開正面,第十一次開正還是反,數學家據於機率論的真蒂,告訴你一定開正面。因為從前十次已看出存在開出正面的未知隱變量。但一般人仍會認為正反各一半機率,甚至有人會錯誤認為連開那麽多次正面,這次肯定會開反面。 我玩輪盤下注前,一定會找現場的賭友看一下他們記錄卡上先前及近期是否有某𠆤特定數字常開出,若沒有,我會忍住不下注。一旦出現連續常開數字,我就立刻下注押這常開數字,以及輪盤面靠這數字左右各兩組數字,共5𠆤數字, 基本中率非常高, 可達到20% 押中率, 20% x35(賠率)/ 5( 押注數), 我每玩五次總投入是25 中一次賠35。 賺10 。 基本上2-4 小時達標10 萬港幣走人。 1)其實在現場賭友記錄卡上先前中球的數字就是領域產業專家去掌握數據的過程。 2) 我會解讀機率論,因此也是玩輪盤的專家。 因此我玩輪盤,就是具專業知識參與的領域產業專家, 另外我的投注策略,就是我建的模。 而眼前台面以算力為主導的AI專家,因為他們手上握有大量的算力籌碼,因此他們是次次都36 𠆤號碼全押, 所以次次都中, 但是每次總輸一𠆤籌碼。 這種暴力的押法, 就是沒有引入產業專家的結果。大量浪費算力在無味的押注上。基本上不是大力出奇蹟, 而是大力出爛成績。 另外眼前生成式大模型,最大的資料來源是取自提供搜索引擎服務的大型公司的資料庫。 而這些資料庫的data base 早已經過各行各業領域產業專家幾十年投入,進行維護梳理,並進行了多維度的數位標記。 因此目前生成式大模型真正的主要貢獻者是,各行各業領域產業專家幾十年的投入,進行維護梳理,並進行了多維度的數位標記。 所以缺乏產業領域專家主導,而由算力提供方來主導的AI 發展,可預見的是將會走得很偏,而且會很快撞牆! AI 的良性發展, 不是靠蠻力的大力出的爛成績。(把算力浪費在一些関聯性不高的變數上,不當不專業的取定變數) 而是要靠產業專家的巧力進而形成的大力出的好成績(奇蹟)。 Nature刊发最新研究 ,目前當紅4 大语言模型, 参数越大越不可靠! 简单任务更容易出错, 誤失率高達40% 這𠆤問題很容易理解。 當我們的需求是專業有限變數的問題, 如股票決策/ 海洋及気象動力/ 無人架駛/ 化學工程/ 土木工程/ 等等,許多專業的有限變數, 這些已建立完成很長一段時間模型的精準度非常高。 而大語言模型想要用海量變數去涵蓋這些專業模式,其自然的結果就是錯誤率極高。 也就是說針對專業有限變數模型,那些大語言模型的99% 變數不旦是垃圾, 還是有毒害的垃圾。 因此使用AI 一定要知道什麼問題什麼場景使用什麼模型。 AGI 必須建立一套專業模型徵用的智能機制。不能一昧的用大模式。 AI的健康發展是以各領域專業專家組為主導,數理統計為核心,編程及算力只是工具,否則用提供算力及工具的這些人來leading AI 發展,會形成外行領導内行,並為AI 發展種下低效偏差甚至高風險的發展。 譬如新藥開發/氣象預報/各種不同語言等等都是以領域專家為核心,否則就亂套了。 更可行的作法, 各國加緊立法,用國家特准许可的方式,來認證並核准各領域不同應用AI 的開發許可及成效認證,譬如目前自動駕駛這領域,不能僅憑廠家自行認證,必需由國家相關單位認證,納入國家法規制約。其實其他領域也應該如此,即便服務大眾的生成式大模型也要納入規範管理,絕對不能任由AI 公司自行任意發佈,一個小電器產品都需有関認證,才能上市銷售,目前AI 大模型實在是太無序了,AI 公司任意上市推出由市場決定其優劣,客戶當白老鼠,完全沒有任何管理約束機制。 任何AI 應用開發的公司,必須有相關該應用領域專業專家為主導,及數理統計的人員的參與,如果沒有通過這些人員資質審核要求的公司或團隊,一律不得從事AI 開發及應用工作。否則視為違法。如同醫師證照,沒證照的醫師坐診,診所如何能執業?! 建立政府職能的審核監管制度,才能防止並追蹤AI 的錯誤使用/ 違規使用/違法使用, 也進而能排除人們對AI 發展造成危害人類的擔憂。 另外這也和在Part 2) AI 產業發展形成呼應。 AI 發展的3 大組成; 各產業領域的專家,建模數理理論,算力編程的提供及組織。 此外,最讓人擔心的應該是產業領域專家組主導的AI 開發, 他們開發AI的效率及精度都是最高的,而且他們非常淸楚如何使用及駕馭它,也因此容易造成有心人藉此做出違法犯罪甚至傷害人類的事。 而算力提供者主導的AI 開發,往往效率及精度都比較差,頂多只是多浪費點資源,失誤率高點,但傷害性不強。 大家思考一下,我們該擔心AI 算力提供者弄出來的作戰機器人,還是該擔心軍方專業人士主導開發的作戰機器人?! 特別是在敏感的專業領域,如核暴/氣象/大気動力/海洋動力/基因工程等等,我記得40 多年前,這些參與CIC(AI)建模的產業專家組人員,基本都被政府列管登記在冊。 因此整𠆤AI 產業的發展, 政府必須義無反顧的出面建立審核/ 監管機制,這樣才能確保有序/ 健康的發展。 而眼前無序的亂象也得以解決。
@hr359
@hr359 Ай бұрын
老哥你也可以做部影片解說了orz
@WaterMaitreya
@WaterMaitreya Ай бұрын
这就是语言巫师乔姆斯基的无知评论。现在的神经网络人工智能不可能是你所说的“统计模型”,因为你说的统计模型要对数据进行分类,而且是人进行的,所以导致上限就是人类的知识。而现在的生成式人工智能不需要人为分类,是机器自己学习,甚至是无监督学习。所以学到的规律同统计模型的分类有本质的不同,所以现在人类也根本不知道人工智能在无监督学习中学到了什么。
@郭宇淮
@郭宇淮 24 күн бұрын
@@WaterMaitreya痾⋯⋯你知道自己在說什麼嗎
@JohnsonsStudio
@JohnsonsStudio Ай бұрын
<a href="#" class="seekto" data-time="69">1:09</a>:54 有個錯別字fintune, 應該是fine tune?
@haunter3679
@haunter3679 8 күн бұрын
逻辑清晰,深入浅出,学习了,谢谢!
@sphinxtan9158
@sphinxtan9158 5 күн бұрын
GPT模型和人類說話的方式還是比較相似的。差別可能是人類有多一層工作記憶(或稱短期記憶)作為語句建構的指導,讓人能把話扣在一個主題上。拜登和特朗普辯論時就表現出"記憶體不足"的現象。那時拜登還是能接著自己的話說,但是卻脫離了原本的主題。原因就是人類在說話時,接下來將脫口而出的詞彙是由前言所引導。這也是為何1.閒聊時我們可以不經深思的講一大堆,2.精神渙散時,會講出一些不經大腦的話(照理說大腦不思考了,人不應該停止說話嗎?)。 但是,diffusion模型就跟人類創作圖像的過程完全不同了。我覺得diffusion模型這條道走不遠。要做出符合現實的圖像創作,根本上和GPT需要接觸現實世界一樣,AI需要通過實物的3D構型去理解物體。而圖像只是3D構型的投影,影片則是連續投影。且繪圖的AI還需要語言模型輔助,以"理解"抽象概念。抽象概念將調整3D構型的體態動作、位置關係等,藉此表達出圖像想要傳遞的訊息。
@laudannis5954
@laudannis5954 11 күн бұрын
你好漫士 想請問一下人工智能參數的數量是固定的還是大模型會自行創建的呢🤔能夠擬合特徵和調整參數 是不是也能自行發現新規律建造新的參數和對應連結🤔🤔
@jenaster2579
@jenaster2579 Ай бұрын
謝謝你的用心
@rex-coding
@rex-coding Ай бұрын
前 50 幾分鐘對於神經網路的深度解說,真的是收穫滿滿
@raymond2mars
@raymond2mars Ай бұрын
首先感谢作者做这么好的视频,不过有几个问题,一是感觉这个视频是几个视频的拼接,中间过渡有点跳跃;有些概念在提及的时候,没有具体解释,比如什么是深度学习,语言模型中的 token是什么,既然之前都说了神经网络,那么不说一下为什么需要 token 就有点不合理?第二就是不要下太武断的结论,比如有可能你做视频的时候用的是GPT4,但是后面o1已经出来了,推理能力大幅提升,那么o1就有可能解决你之前觉得不太可能解决,或者解决的不好的问题,毕竟目前AI进化的太快了。总之还是感谢,加油。
@Wyatt-g8p
@Wyatt-g8p 11 күн бұрын
<a href="#" class="seekto" data-time="76">1:16</a>:20 既然图片可以通过随机噪点逆向运动, 变成一张图片. 那么大语言模型能否根据一个句号/一个空格/一个换行, 来反向生成完整的一段话呢?
@megagale
@megagale 8 күн бұрын
好奇Minsky那么聪明绝顶的人怎么可能没有想到过MLP可以轻而易举的解决异或门问题呢?
@siralat
@siralat 11 күн бұрын
<a href="#" class="seekto" data-time="2316">38:36</a> 我有一個關鍵的問題沒明白 - 用梯度下降的方法,我只能知道左邊或右邊下一個斜率最低的地方在哪裡,但k1這個旋鈕是可以無窮大的,我雖然找到了向左或向右的下一個底部在哪,但我應該完全沒有信心這個到底是不是整個旋鈕中最底部的位置啊?情況就像我坐過山車,我俯衝到底部,我開始向上回升了,但我永遠不知道下一個底部會不會比我現在這個底部更低
@perinainai
@perinainai 8 күн бұрын
你這是起始值問題?對的只能找到局部最低😅! 也許可各批量訓練找各批量局部最低當起始值,再全批量訓練看趨近那個局部最低。但這樣也只是有可能找到全域最低而已😮‍💨! 就正確性來說,只要最後輸出正確,區域最低或全域最低有差嗎😜?若輸出不正確誤差太大,代表跳不出區域最低,就打掉重練😵‍💫!
@moonsword6813
@moonsword6813 15 күн бұрын
看完后,自己變成AI。能夠說出專有名詞,梯度下降,back propagation,stable diffusion。。。, 但又不理解固中的邏輯,規律。 我要看多數萬個相關視頻,進行深度學習。
@xiao9-Ninepoker
@xiao9-Ninepoker Ай бұрын
太神了❤ 终于搞懂了一些基本原理。之前看过很多科普,从来没有这个视频带给我的茅塞顿开的感觉
@haikunHuanghk
@haikunHuanghk 17 күн бұрын
一文懂💯
@edyang100
@edyang100 15 күн бұрын
如果智能是生命独有的特性,那人工智能是否可以视作一种新的生命形式?
@linHsinHsiang
@linHsinHsiang 8 күн бұрын
太猛了!看完讓我回想起當年對機器學習印象了
@liang9to5
@liang9to5 5 күн бұрын
Very Good! I have learned a lot about AI.
@buliaoqing
@buliaoqing Ай бұрын
讲的很清楚!
@UCan927
@UCan927 Ай бұрын
从您的视频中 看到了自己与博士的差距 👍👍👍
@user-12669
@user-12669 Ай бұрын
一般的博士讲的也没有这么好。这期视频的水平,专业度,深度,和容易接受度,从这些方面综合来看,可以秒杀掉绝大部分高校的“人工智能概论”课程,这帮大学老师基本上个个也都是博士,但实质上都是一帮水货博士。本期内容足够给他们做个样板,来学学课应该怎么上,什么才叫真正的讲课。
@jialiang4197
@jialiang4197 9 күн бұрын
迄今看过的最好的AI科普,没有之一
@徐子晴-l9t
@徐子晴-l9t Ай бұрын
天哪,这是我目前见过讲的最通俗易懂但不肤浅且逻辑清晰没有废话的
@user-djelwJsskI8964
@user-djelwJsskI8964 Ай бұрын
推荐3blue1brown
@0day-hacking
@0day-hacking 5 күн бұрын
我上学的时候教授要是一开始这么讲,早应该学会了吧
@涂凱鈞-e6m
@涂凱鈞-e6m Ай бұрын
30:22的地方是“擬合”嗎?
@Lee.Pin-Fan
@Lee.Pin-Fan 7 күн бұрын
老兄我本來以為你來裝的,看了一半 點讚訂閱了 加油!
@lits1684
@lits1684 18 күн бұрын
感謝 您的深入淺出生動的說明人工智能神經網路的運作原理和發展,很讚的內容!謝謝!!
@user-SugarLabyrinth
@user-SugarLabyrinth Ай бұрын
神经网络看了很多,各家讲的零零散散的也算是弄明白了,MS开这一节课我是相当支持的,简单易理解
@user-SugarLabyrinth
@user-SugarLabyrinth Ай бұрын
我去后半发过,我说怎么视频放一半就讲完了
@yehl9814
@yehl9814 2 күн бұрын
不就是比較精密的自動的電腦而已啊!A l就是如此!
@sciab3674
@sciab3674 26 күн бұрын
优秀 好视频🎉
@cynthiazhang799
@cynthiazhang799 10 күн бұрын
还要看一遍,respect
@yh5309
@yh5309 Ай бұрын
先在B站看到 以為YT不弄了 不過這裡沒時間軸 所以我要轉回去B站了🤣 不得不說真的好好看 今天才剛複習我第一個在此頻道看的影片 講分而治之的那個 超級無比想看其他演算法的內容 然後就在B站發現了這個 是這樣逛到這個影片的~ (不得不說看到B站給人推一堆什麼"幾個小時帶你死嗑完balabala"真的是有夠煩的 (很多就是開開github然後就在網頁上講講講 開個程式跑跑跑,重點是標題有夠製造焦慮的 90分鐘比起那些那種 真的沒在水時間啊👍 動畫跟深入淺出的解說有在用心 不說了我應該看完來講比較有說服力
@lionjohn1351
@lionjohn1351 5 күн бұрын
能夠興致勃勃的看完這約90分鐘影片的,大概就是我們這些理工男了。往往在媒體上和現實生活中暢聊AI 發展滿口人工智能的人們,我覺得大部分是不會花時間理解y=f(x).... 這是啥東西的,請幫理工男請加入說故事能力函數 ,大家一起加油。
@siralat
@siralat 14 күн бұрын
<a href="#" class="seekto" data-time="3553">59:13</a> 「我在廁所打原神怎麼你了嗎?」不行我快笑死了
@freedom-democracy-2024
@freedom-democracy-2024 19 күн бұрын
还没出概率论相关的视频啊
@Yuegang23Zhang-wk6xx
@Yuegang23Zhang-wk6xx 10 күн бұрын
大哥,能给个联系方式吗
@zhijianzhang7973
@zhijianzhang7973 23 күн бұрын
看到过的AI科普最优秀的一个视频
@XunZhong
@XunZhong Ай бұрын
讲得很好。这个视频可以在深度学习课之前和之后各看一遍,效果肯定非常好
@shilukas
@shilukas Ай бұрын
3blue1brown?
@griffinpan
@griffinpan Ай бұрын
漫士真的很棒,很喜歡您的作品
@GuoqingZhao-d8s
@GuoqingZhao-d8s 23 күн бұрын
这全是blue 大神的呀 不过也做了些工作 中文贡献。
@manshi_math
@manshi_math 23 күн бұрын
@@GuoqingZhao-d8s 那可不是,除了素材和一小部分讲解借用blue,绝大部分内容是我自己原创的
@artjio
@artjio Ай бұрын
這一系列影片實在很讚,可惜之前提到的量變造成質變的湧現,是在上次介紹完chat gpt後,說要出的,但這個合集沒出來,蠻想看那段的介紹的。 但這合集內關於Sora那段,我看一次大概只能懂一半,所以有再往回看一下,還是覺得這真是一個厲害的理論。
@manshi_math
@manshi_math Ай бұрын
@@artjio 湧現出了,看水結冰那一期
@artjio
@artjio Ай бұрын
@@manshi_math 感謝UP主,因為今天才接觸到這頻道,看完gpt跟這影片,沒注意到那個水結冰。
@user-12669
@user-12669 Ай бұрын
@@manshi_math 这是有史以来最好的一期,没有之一。这期视频最大好处就是,给没有相关基础,甚至是非专业人员做了足够的铺垫,随着逐步深入,讲解的十分透彻,相关例子列举的也很好,通俗易懂。这才叫优秀的科普作品,比起早先那些赞太多了。
@可達鴨-d2y
@可達鴨-d2y Ай бұрын
太強了,這解釋都可以直接出書了
@rain-npc
@rain-npc Ай бұрын
深入淺出👏🏻
@扒路头子茅泽西
@扒路头子茅泽西 Ай бұрын
九浅一深,强
@aohhhh
@aohhhh Ай бұрын
真的要給漫士一個大大的respect 感謝
@裘lulu
@裘lulu 9 күн бұрын
好耶😮
@ZhengTianPan
@ZhengTianPan 19 күн бұрын
看到你回国了感到特别幸慰! 回国释放光和热!
@tutu_8741
@tutu_8741 16 күн бұрын
制作真的很不容易,for me 真的很Diao
@Albert-kr8mu
@Albert-kr8mu 27 күн бұрын
你的一口氣竟然長達90多分鐘😂我還是慢慢吞下去好了
@AWanderingperson
@AWanderingperson Ай бұрын
很感兴趣但怕上当 有看过的给个评价啊 拜托!
@user-12669
@user-12669 Ай бұрын
不要怕,认真看就对了,看这期视频如果还是不能理解神经网络的运作原理,那么我保证你看任何视频,读任何教材都一定不可能学会。这个题材本来就非常艰深,不管是教学还是实践都是难点,漫士已经讲得非常通俗易懂了。实质上,这期节目如果切开了做,可以做成一个多集连续的小型网课了,只不过那样也存在一个缺点,那就是,你不连续从头看到尾,得不到完整的思路,有基础的人看了开头觉得浅就不看了,没基础的人看了中部看不懂,最后导致整个系列的效果都不佳。我相信漫士也是考虑到了这个问题,不如干脆直接来个单期大容量的一次性讲完。建议喝好水只饱饭去WC解决完,然后慢慢享受本期内容。
@freedom-democracy-2024
@freedom-democracy-2024 Ай бұрын
就想知道这样的一帧一帧的动画是咋做的???
@feixia5385
@feixia5385 Ай бұрын
AI做的
@user-djelwJsskI8964
@user-djelwJsskI8964 Ай бұрын
不知道你指的是哪个?大部分应该是ppt,中间神经网络那部分用了3blue1browm的视频片段
@freedom-democracy-2024
@freedom-democracy-2024 Ай бұрын
@@user-djelwJsskI8964 谢谢,具体方法如何做出来的
@dlfang
@dlfang Ай бұрын
厉害!把我大学学的函数理解推向新高度👍
@yoyomemory6825
@yoyomemory6825 23 күн бұрын
很棒的视频。不过一直觉得神经网络的结构算法,和数据的质量相比,就像当年批判感知机一样,是shit
@dlfang
@dlfang Ай бұрын
如果解构人类大脑各神经节的功能,然后再用一个神经网络模拟一个神经节功能,当把所有神经节都模拟后再连接在一起,会不会达到人脑的水平?🤔
@user-12669
@user-12669 Ай бұрын
这个问题,有一本人工智能科普名著《The Pattern On The Stone: The Simple Ideas That Make Computers Work》里已经给了很明确的答案,作者认为完全可以。只要计算机的规模足够大,足够复杂,完全可以做到。而且作者成功的预言了后来生成式人工智能的出现,甚至在那个年代,连人工智能技术进步和发展的方式都预言得很准确。漫士之前有一期节目,水结冰的那期内容也提到了这个观点,你看到的今天计算机可以完成越来越复杂的任务,哪个不是基于越来越庞大的规模的?规模不提升,仅仅依靠算法绝对不够。
@北溟之鲲
@北溟之鲲 5 күн бұрын
普林斯顿,李飞飞的母校
@jjooe781201
@jjooe781201 Ай бұрын
太狠了,想說最近沒更大概趕計畫,結果來個大的= =
@Supersdars
@Supersdars Ай бұрын
太棒了!这科普视频!
@恩恩-x4m
@恩恩-x4m Ай бұрын
感謝分享
@BcdhutRykhbc
@BcdhutRykhbc Ай бұрын
请问, AI能炒股炒期货吗?
@六老-i5w
@六老-i5w Ай бұрын
❤❤❤
@音遊小萌新
@音遊小萌新 Ай бұрын
實片只有五十分鐘,剩下的是之前的chatgpt解釋
@manshi_math
@manshi_math Ай бұрын
@@音遊小萌新 祇有……qwq說的跟50分鐘做起來很容易一樣
@step_by_step867
@step_by_step867 Ай бұрын
@@manshi_math 制作不易,大佬您真厉害
@juexinyidao
@juexinyidao Ай бұрын
@@manshi_math 不过之前引用的视频把开头剪掉观感会好点吧?
@lhcy1991
@lhcy1991 17 күн бұрын
知识储备不够听不懂
@shinsakai
@shinsakai Ай бұрын
太厲害了,辛苦了
@MrXdq1987
@MrXdq1987 Ай бұрын
其他的视频都可以下饭,只有漫士的视频我会逐字领会。
@OAAGOD
@OAAGOD 15 күн бұрын
现在的人工智能只是法人道,要法天道才能出现有意识的超级人工智能
@林韋旭-f9g
@林韋旭-f9g 18 күн бұрын
國一喜歡看你的影片正常嗎
@yutranrekk
@yutranrekk Ай бұрын
为什么不能刚好生成20个字😢
@alexschindler1478
@alexschindler1478 Ай бұрын
加油,期待出新作品,不是更好的作品,现在这个水平已经可以了。就是希望能快速给粉丝一些新的内容
@maomao3593
@maomao3593 Ай бұрын
太6了,让我这个外行也看懂了,明白了很多以前想知道但一直搞不懂的概念👍。非常感谢up的无私劳动,教我这么多还没有收一分钱,up辛苦了☕。另外能不能讲一下大模型的注意力机制,还有各家大厂像openai他们是怎么为大模型植入是非观念的?也是提示词吗?还有越狱的原理,还有怎么分词,怎么对齐…我都很好奇。还有问gpt像103681504×977143952这种训练数据里肯定没有的口算题时,它是怎么预测出结果的,是掌握了计算方法,还是调用外部工具去算?还有让gpt生成随机数时,它是怎么生成的?他生成的随机数真的随机吗?
@humanngan91
@humanngan91 19 күн бұрын
讲得很好,听不懂绝对是我自己的问题😂
@傑秀皇
@傑秀皇 Ай бұрын
決定用這條影片温習考試
@alvinz4012
@alvinz4012 18 күн бұрын
可惜现在德特茅斯已经衰败了
@ΥγρόΠυρ
@ΥγρόΠυρ Ай бұрын
这一期值得我反反复复看上十遍。
@xlgnepo
@xlgnepo Ай бұрын
和大语言模型一样,大家每天都在用的视频解码其实也是个自回归过程。这个思想可以说早就存在了。
@音遊小萌新
@音遊小萌新 Ай бұрын
二合一了哥們
@yutranrekk
@yutranrekk Ай бұрын
漫士!!!❤❤❤
@garfieldlavi
@garfieldlavi Ай бұрын
中間用了3blue1brown的影片
@mixshare
@mixshare 15 күн бұрын
开源的工具
@黃竑舜
@黃竑舜 Ай бұрын
我看剛發片就點進來,結果89分鐘
@音遊小萌新
@音遊小萌新 Ай бұрын
實片只有五十分鐘,剩下的是之前的chatgpt解釋
@王秉玄
@王秉玄 Ай бұрын
Interesting/amazing 阿😂😂😂
@Hameer-e2o
@Hameer-e2o 24 күн бұрын
朝聖
@hujosh8693
@hujosh8693 Ай бұрын
一開始就錯,幫我們解決問題的不是GPT,是ChatGPT,不一樣東西。
@manshi_math
@manshi_math Ай бұрын
@@hujosh8693 白马非马是吧
@惡魔比比
@惡魔比比 Ай бұрын
你會被AI取代
@paopaozhao-pu7vw
@paopaozhao-pu7vw Ай бұрын
逆天的评论😅
@hujosh8693
@hujosh8693 Ай бұрын
@@manshi_mathGPT只是一個causal language model,無意識產生下一個文字,不會回答問題,不會解決問題,ChatGPT是經過Instruction fine tuned的,知道要回答問題,這很基本好嗎?國中生都知道。
@RusticMan1900
@RusticMan1900 27 күн бұрын
@@hujosh8693发明电脑得的不是人类,是美国人
@wonmanintp
@wonmanintp Ай бұрын
一些重複性的工作,一定會被Ai 取代。所以,好好利用Ai 這個工具才是真正的需要。
@lukefan715
@lukefan715 Ай бұрын
牛b
比《人類大歷史》更重要的書:《連結》最完整解析,原來我們對 AI 的看法錯了!?
24:54
張修修的不正常人生 Shosho's Abnormal Life
Рет қаралды 222 М.
ТВОИ РОДИТЕЛИ И ЧЕЛОВЕК ПАУК 😂#shorts
00:59
BATEK_OFFICIAL
Рет қаралды 6 МЛН
ТЫ В ДЕТСТВЕ КОГДА ВЫПАЛ ЗУБ😂#shorts
00:59
BATEK_OFFICIAL
Рет қаралды 4,6 МЛН
How To Choose Mac N Cheese Date Night.. 🧀
00:58
Jojo Sim
Рет қаралды 92 МЛН
When u fight over the armrest
00:41
Adam W
Рет қаралды 32 МЛН
供应链到底有多重要? | Supply Chain
18:53
小Lin说
Рет қаралды 731 М.
Web3.0到底是怎么回事儿?
25:49
小Lin说
Рет қаралды 1,4 МЛН
ТВОИ РОДИТЕЛИ И ЧЕЛОВЕК ПАУК 😂#shorts
00:59
BATEK_OFFICIAL
Рет қаралды 6 МЛН