KZ
bin
Негізгі бет
Қазірдің өзінде танымал
Тікелей эфир
Ұнаған бейнелер
Қайтадан қараңыз
Жазылымдар
Кіру
Тіркелу
Ең жақсы KZbin
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
GPT-4o 背後可能的語音技術猜測
38:13
从零开始学习大语言模型(一)
20:13
Players vs Corner Flags 🤯
00:28
Поветкин заставил себя уважать!
01:00
😳 Машина хотела сбежать от хозяина в режиме автоматической парковки? | Новостничок
00:23
From Small To Giant Pop Corn #katebrush #funny #shorts
00:17
80分鐘快速了解大型語言模型 (
Рет қаралды 148,839
Facebook
Twitter
Жүктеу
1
Жазылу 241 М.
Hung-yi Lee
Күн бұрын
以下為投影片連結:
drive.google.c...
Пікірлер: 147
@zengfeidu9414
6 ай бұрын
老师是以其昭昭,使人昭昭。讲的真好。有好些个东西,好的中文老师一讲就非常贴切,英文的质量也许不错,但就是对我们的针对性不够,经常上课听一些笑话,但只在那里傻呵呵看别人笑。
@deskeyi
10 ай бұрын
現在LLM更新太快,已經等不及聽老師的新課了😂求老師指點當前趨勢下普通打工人還可能在那些方面修修補補GPT,使自己不被淘汰😅
@Simon-LeightonTV
7 ай бұрын
这是全世界打工人的顾虑吗
@gabrielgracenathanana1713
5 ай бұрын
教授做不到。他就是一个混饭的教书匠。
@风吹木华
10 ай бұрын
感谢李老师的精彩分享!期待继续follow下学期的《生成式AI导论》的内容:) 期待更多实操的assignments🤩
@dtung2008
6 ай бұрын
2:08 ChatGPT給了正確的答案但是錯誤的推論,但是錯誤的推論中有關鍵的正確元素,也就是如果A不是square matrix. ChatGPT在回答證明題是也有同樣的問題,但是回答中也經常有關鍵有用的推論,還是相當神奇。
@zeroheisenburg3480
8 ай бұрын
Great lecture as usual. Look forward to professor start talking about In-Context learning where I believe it's a lot of where the magic occur.
@janchangchou777
6 ай бұрын
Part 1): 任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….), 以便對一些事件做出精准智能的預測。 所謂自我學習或機器學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的杈重或係數參數而已。 而深度學習也只是處理巨量變數時,為了避免僅用單層機器學習進行巨量變數而需要解大矩陣導致對巨量平行計算的需求,進而變換設計成每層適量變數,建立多層次的機器學習修正。 40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。 在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。 近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。 因此也不用太誇大眼下的AI , 這些早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。 ”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。 何謂知識? 由經驗總結後( 抽象具體化) ,就形成知識(用數字分析的表達方式就是去建構知識模型)。 形成知識後就可複製/ 傳承/ 預測/ 擴展。因此目前的AI 發展,就是在循人類文明發展至為重要的其中的一𠆤過程-只是採用了數位化的方式,將經驗知識化了。 目前的AI 只是以數理統計為手段及方法論,以資訊及計算機工程為工具,進行數位型的經驗知識化的過程。 人類有許多其他不同型態非常複雜的知慧,這種僅止於知識數位化的智慧, 其實離人類多型態的智慧還有非常巨大的距離。 另外, 眼下AI 服務於大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組( 行列式計算), 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。 其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。 只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。 此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。 而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。
@louis-dieudonne5941
Ай бұрын
寫論文啊你
@oden9699
6 ай бұрын
目前看到最好的LLM入门介绍,深入浅出乃大师也
@蔡文嘉-i4z
10 ай бұрын
好棒的內容,這是可以免費看的嗎!! 感謝老師的分享!!
@skyfaded9807
10 ай бұрын
老师更新了,先赞后看
@ocean9032
10 ай бұрын
想念老师的第5个月,老师更新了!
@PurrfectWorld
10 ай бұрын
老师我爱你
@svenhome3329
10 ай бұрын
老師您好,您的課讓收受益頗多。 我能否轉載您這堂課? (純分享,非商業行為)
@HungyiLeeNTU
10 ай бұрын
沒問題👍
@svenhome3329
10 ай бұрын
@@HungyiLeeNTU 謝謝老師☺
@tiantiantianlan
10 ай бұрын
老师,请问哪里有slides呀?
@yuyongbin
10 ай бұрын
李sir 我小音箱拉到最大声了,还是小声了点
@chuankangli7726
10 ай бұрын
求老师多多更新
@梁嘉君-m8f
10 ай бұрын
1:02:17 人類的互動也需要懂得下指令啊QQQQ
@xiaozhang-z6p
10 ай бұрын
请教各位,0基础看什么课?
@KG-iy5ll
10 ай бұрын
哈哈哈哈哈,请叫2.5条悟
@bevis3950
10 ай бұрын
簽到
@bingmountain9799
10 ай бұрын
3500
@冰塊-v6i
10 ай бұрын
[ 有咒術廻戰雷 ]
@冰塊-v6i
10 ай бұрын
五條悟被分一半放在五分半,太鬼了
@Maybelle-xf6po
5 ай бұрын
22
@xianglongchen3088
10 ай бұрын
前排~
@radio0529
10 ай бұрын
有人跟我一樣直接快轉到五條體嗎?
@missgreenbamboo
10 ай бұрын
老師講得非常深入淺出,聽一聽還會笑出來,學到很多
@JaBinJa
10 ай бұрын
老師說咒術有雷,但居然暴雷了獵人,想必獵人已經脫更到不算暴雷的程度了
@louislouis117228
10 ай бұрын
那我這邊再多爆一個巨人的雷,男主角的媽媽會被巨人吃掉而便當
@zSnowzmanz
9 ай бұрын
第一集就死了啊@@louislouis117228
@小吉-y2j
10 ай бұрын
绷不住了,老师教学简洁易懂有趣生动,太厉害啦
@LINJIE-jy1vc
2 ай бұрын
爽了?
@shitephen
10 ай бұрын
1. 80分鐘理解大型語言模型 2. 5條悟出現在5:30
@yolandajiang8700
9 ай бұрын
这一年听过很多AI课觉得李老师讲的是最好的!谢谢老师!
@m06800825
9 ай бұрын
感謝老師提供這麼好的課程,從事機器學習相關工作快五年了,還是會常常回來複習或是學習新知識
@trump1248
10 ай бұрын
确实讲得好啊……我大学要是有个这样的老师,我……应该还是我……
@sanwang-bc2yz
7 ай бұрын
李教授您好,首先感谢您上传视频,您的视频讲解清晰,内容前沿,是非常难得的学习资料,他们帮助了无数人了解学习ai 。 我是一个厨师,业余会写些ai 相关的科普,能否在标明出处的情况下,引用您ppt 的内容与部分作业代码?非商业行为 祝老师龙年大吉,财源滚滚,研究有成!
@HungyiLeeNTU
7 ай бұрын
沒問題
@wonglaihim4864
10 ай бұрын
外地人如果來台灣可以旁聼課嗎?感覺聽課比去景點還有意思😂
@aacc_okina
10 ай бұрын
去景點跟旁聽是可以比較的兩件事嗎?
@hinatayiacc5375
10 ай бұрын
他只是想表達老師的課講的很生動很有意思啦。@@aacc_okina
@于治維-w3o
10 ай бұрын
@@aacc_okina人家相較於玩樂,更嚮往學習有什麼問題嗎?
@TW800630
10 ай бұрын
@@于治維-w3o 認真討論的話,雖沒什麼問題,但我個人認為拿景點跟旁聽課程做比較並不恰當。 景點是讓人從體驗上得到快樂。而聽課是從獲得知識中得到快樂。共通點都是快樂。 不相同的點是景點並不用消費特定個人的大量知識和時間成本。而課程是需要的。 去景點不需要取得任何人的同意,因為景點本身就是為了遊客和消費而打造的。 但授課無論是否收費,都是需要老師的同意,並不是像景點是完全對外開放的。 這是我認為景點不適合和課程比較的原因。 在想獲得旁聽機會時,將玩樂對比老師的課程,對於專業或許稍有不尊重。 這是我身為一個學生的看法。 但我相信樓主的本意只是想表示對老師課程的生動有趣表示認同而已。 並不是一種不尊重的表現。 抱歉認真了XD
@penolove15
10 ай бұрын
人生就是三件事, 1.出生, 2.跟李老師合照, 3.轉生異世界
@shiauber
10 ай бұрын
不知道老師能否share PPT 讓更多人協助傳達這份力量?
@XDDD8888
10 ай бұрын
五條體笑出來😂😂😂
@bwoyu
10 ай бұрын
我阿公追隨的ML學習寶典終於又更新啦
@yunchu6679
10 ай бұрын
感謝老師的辛苦付出. 向您提個小建議: 調整一下mic的音量.
@黃禹豪-p6h
7 ай бұрын
感謝李老師,做為一個剛考完資工所的學生,在空白期的時候還有東西可以學習,雖然沒機會去台大至少學習的熱情不能輸!
@nicoliang8267
6 ай бұрын
好赞,找了很久的资料,到底是李老师讲得最明白
@v86861062
10 ай бұрын
content loudness -14.8dB 聲音有點小聲 :(
@mayu-chichi._.
10 ай бұрын
我只是看到咒術迴戰就進來了
@janchangchou777
6 ай бұрын
另外所謂AI的算力,也多被這些台面上資訊及硬體公司給神話了,整𠆤AI 主要算力在解大矩陣行列式。 也就是同時或儘量同時計算(平行計算) y 千萬組的 y千萬𠆤數的連乘積。 極其簡單(小學算術程度)但體量龐大的加減乘除。 無任何高深複雜的計算。 GPU 可以當做兼為AI 算力工具,但是GPU 如果僅專用在AI 上,則已是超規格。 因此微軟搞出了這種純滿足AI 小學暴力算術晶片。英偉達GPU一定要小心了,GPU 涵蓋應用面遠大於AI , 如果僅用於AI 工作,則晶片可以非常簡化。
@不爱吃猫的鱼-j2t
10 ай бұрын
期待生成式ai导论的课程🎉请问最早大概什么时候可以在KZbin上看到❤
@HungyiLeeNTU
10 ай бұрын
沒有意外的話應該會是二月底開始上課
@朱文-n8y
3 ай бұрын
这个声音忽远忽近 听起来感受真差,特别是带着耳机
@kl0
10 ай бұрын
第一次看到老師叫學生嗚住耳朵不要聽 🤣
@shiauber
10 ай бұрын
老師講解真的相當有趣 :)
@austinc8
10 ай бұрын
李老师的讲解深入浅出,解惑又有趣,感谢!
@JingZuo-ts5jz
10 ай бұрын
深入浅出
@hui-fenhuang7492
2 ай бұрын
謝謝教授公開影片,讓社會人士的我們也能獲取相關知識👍
@万万-p2k
7 ай бұрын
我认为还是gemini好用 gpt基本靠吹 没对比就没有伤害
@zishengliang202
10 ай бұрын
1:04:57 处的 ref 的论文地址有 typo,好像应该是11903
@qinyuechen8788
10 ай бұрын
李老师的课太好了, 深入浅出,离开学校这么久也能听懂,
@huyi122
10 ай бұрын
老师讲的真的很棒!每个视频都很有质量!!
@manfyegoh
10 ай бұрын
欢迎回来!!
@catcatcatcat4
4 ай бұрын
謝謝老師有在標題寫出無情暴雷的時間點XD
@nanakaka7
10 ай бұрын
大金!! 感謝老師🐻
@pkwanga
10 ай бұрын
第一,秒按讚
@路人甲-w7j
10 ай бұрын
許久沒更新, 覺得很棒!
@andersonfredy1909
10 ай бұрын
哈哈哈, 刚在ACML见到老师本人, 但是没来得及找老师合照。
@ly1231cn
7 ай бұрын
求老师讲解flash attention 和 mamba
@wangyang5564
10 ай бұрын
AI在不斷的進步,作為一個學生,該如何面對AI的衝擊?
@a3521457
10 ай бұрын
有夠讚
@foreinorayo
9 ай бұрын
李老師有對gemini的看法嗎?
@princend1584
7 ай бұрын
老師 請問大金助教會製造冷氣嗎?
@马长江
10 ай бұрын
前排坐小板凳听
@zSnowzmanz
9 ай бұрын
v587
@winniewang9223
7 ай бұрын
先深呼吸再作答,太有意思啦,哈哈哈,老师讲得真好!
@maogewolfcodewolf
10 ай бұрын
终于开始更新了, 等了好久了....
@家豪刘-h9l
10 ай бұрын
李老师24年春会考虑讲一下对比学习嘛❤
@HungyiLeeNTU
10 ай бұрын
之前的課程其實也有講過一些 contrastive learning 喔,SimCLR, BYOL 等都有提到 kzbin.info/www/bejne/on6sf2SfgL6Bo6Msi=E-_dWvbgtxmPbmIH
@家豪刘-h9l
10 ай бұрын
@@HungyiLeeNTU 哦哦,刷完了您21年的课程,还没刷22年的,这就去刷,哈哈。谢谢李老师~
@雨魚-y1h
10 ай бұрын
今天錄製今天上片 太狠了
@tiger96871242
10 ай бұрын
五條體太神了吧 😂😂
@hawkiyc
10 ай бұрын
VeryEasyHack 筆記筆記
@Natural_Motion
8 ай бұрын
上课啦 in Chengdu
@lemon94
6 ай бұрын
6:30 有猎人🤗
@unalai1426
5 ай бұрын
感謝分享 👍
@wxw2098
9 ай бұрын
李弘毅幾班,大金
@herbertliu4022
6 ай бұрын
讲的也太清楚了
@xiluosg6972
10 ай бұрын
很棒!一直在等
@huangjian7749
8 ай бұрын
太好了!大陆的
@蘇胖-e1n
10 ай бұрын
說得很清楚! 厲害的老師
@David-us2ud
10 ай бұрын
现在大模型在cv领域也有很多发展了
@xaviertsai4063
10 ай бұрын
五個月沒有課上,都面目可憎了。😂
@PGClassroom
10 ай бұрын
非常實用,讓我想到許多IDEA ^^
@syGu-r6y
10 ай бұрын
老师以后会讲联邦学习嘛?
@potato-ip9tp
10 ай бұрын
5:00 很臭😅😅
@劉鎮宇-e1m
9 ай бұрын
笑到不行😂
@晨絮
10 ай бұрын
我是来看咒术回战雷的
@muhanyan-RS
7 ай бұрын
干货满满,李老师讲的太好了
@jeffclark9477
10 ай бұрын
老师赶快用 GPT4.
@shaoe
10 ай бұрын
笑死,還有咒術迴戰雷,哈哈哈😂
@yifanyang6400
7 ай бұрын
感谢李老师的分享,讲的是真的棒!
@GoGoNow
10 ай бұрын
心心念念 等著老師發影片阿...
@li-pingho1441
10 ай бұрын
簽到
@ctchen1988
10 ай бұрын
簽⋯
@GGNNDER
10 ай бұрын
來了來了
@CN-YT-Ranking
9 ай бұрын
热烈祝贺《Hung-yi Lee》荣登【中文油管排行榜-AI人工智能(人工智慧)频道-Top 17】前3名!祝《Hung-yi Lee》频道越办越好,蒸蒸日上!😀 kzbin.info/www/bejne/jWnCqYV6jN6Li68
@lvshiping7298
10 ай бұрын
最好的中文教师
@mixshare
10 ай бұрын
🎉🎉🎉🚀
@xuex67
10 ай бұрын
謝謝老師
@XonfWu
10 ай бұрын
终于等到你❤
38:13
GPT-4o 背後可能的語音技術猜測
Hung-yi Lee
Рет қаралды 55 М.
20:13
从零开始学习大语言模型(一)
林亦LYi
Рет қаралды 213 М.
00:28
Players vs Corner Flags 🤯
LE FOOT EN VIDÉO
Рет қаралды 70 МЛН
01:00
Поветкин заставил себя уважать!
МИНУС БАЛЛ
Рет қаралды 6 МЛН
00:23
😳 Машина хотела сбежать от хозяина в режиме автоматической парковки? | Новостничок
НОВОСТНИЧОК
Рет қаралды 14 МЛН
00:17
From Small To Giant Pop Corn #katebrush #funny #shorts
Kate Brush
Рет қаралды 70 МЛН
2:57:05
【機器學習 Machine Learning】3小時初學者教學 | 人工智慧 AI | Python | 機器學習入門 | 機器學習教學 #AI #ML #深度學習
GrandmaCan -我阿嬤都會
Рет қаралды 793 М.
1:27:05
Transformer论文逐段精读
跟李沐学AI
Рет қаралды 404 М.
38:16
【生成式AI導論 2024】第10講:今日的語言模型是如何做文字接龍的 - 淺談Transformer (已經熟悉 Transformer 的同學可略過本講)
Hung-yi Lee
Рет қаралды 35 М.
45:16
【生成式AI導論 2024】第11講:大型語言模型在「想」什麼呢? - 淺談大型語言模型的可解釋性
Hung-yi Lee
Рет қаралды 33 М.
3:57:06
🔥RPA UiPath Full Course | RPA UiPath Tutorial For Beginners | RPA Course | RPA Tutorial |Simplilearn
Simplilearn
Рет қаралды 389 М.
13:25
LLM (Large Language Model)是什麼?揭秘AI智慧背後的技術!
鬍子Jack
Рет қаралды 6 М.
3:49:35
结构方程007中介效应分析
投机研究所
Рет қаралды 11
3:54:52
Arthur Keller x TaT - Les grands enjeux de notre temps : des défis systémiques.
Terre À Terre | ENS Paris-Saclay
Рет қаралды 197 М.
2:14:53
【分享】5月7日 | 陆奇 | 《新范式 新时代 新机会》| 官方完整高清字幕版 | 奇绩创坛
最佳拍档
Рет қаралды 27 М.
32:04
【生成式AI導論 2024】第13講:淺談大型語言模型相關的安全性議題 (上) - 亡羊補牢、語言模型的偏見、有多少人用 ChatGPT 寫論文審查意見
Hung-yi Lee
Рет қаралды 19 М.
00:28
Players vs Corner Flags 🤯
LE FOOT EN VIDÉO
Рет қаралды 70 МЛН