什么是卷积神经网络?卷积到底卷了啥?

  Рет қаралды 78,106

妈咪说MommyTalk

妈咪说MommyTalk

Күн бұрын

什么是卷积神经网络?卷积到底卷了啥?

Пікірлер: 208
@albertwang5974
@albertwang5974 3 жыл бұрын
卷积就是通过卷积核突出数据的局部相关性,把你感兴趣的特征强化出来,方便后续步骤提取这些特征!
@xanaduzhang186
@xanaduzhang186 2 жыл бұрын
简单能这么说吧。。。不过大家还是要知道,特征提取的方法有好几类,不只是卷积。
@gagaga271
@gagaga271 2 жыл бұрын
你这是用卷积解释卷积啊
@maxliu1613
@maxliu1613 2 жыл бұрын
果断订阅你!😎
@caicai491
@caicai491 3 жыл бұрын
1/3那个序列没看懂怎么算的看这里:x序列从头开始依次取3个数,第一次取x1,x2,x3,第二次取x2,x3,x4,第三次取x3,x4,x5,以此类推。每取一次和w序列的3个数分别相乘再求和,得到新序列的一个数。x序列从头到尾算一遍即可。
@zephirphalcon9961
@zephirphalcon9961 3 жыл бұрын
正解
@harborl5145
@harborl5145 2 жыл бұрын
这个地方真不该省略,否则想破脑袋也不知道怎么快速的算一下算出来两个1 了
@Canton_Cuisine
@Canton_Cuisine 2 жыл бұрын
对头
@yuqiu7207
@yuqiu7207 2 жыл бұрын
你这儿第一次取x1,x2,x3算的是y几啊?
@jimmy7894
@jimmy7894 2 жыл бұрын
視頻中的演繹結果好像跳過兩次結果,要符合公式結果y1應去取x1,結果y2應去取x1,x2,結果y3應去取x1,x2,x3,視頻中的結果直接跳到y3
@Josstseng
@Josstseng 2 жыл бұрын
頻道主邏輯口條跟節奏掌握的真好,讓沒基礎的人也能聽得懂
@weishyh
@weishyh 2 жыл бұрын
突然有一種打通任督二脈的感覺. 很久以前念 time domain 二個信號做 convolution, 繁複的微積分運算, 後來透過 Fourier transform 簡單去處理. 但和後來看的Convolutional Neural Network 搭不在一起. 不過看到老師解釋的方式. 終於理解為什麼叫 Convolution 了. 以前可能我都沒有從其物理意義去思考它究竟是什麼. 今天才有一點領悟. 感謝.
@timsecond
@timsecond 2 жыл бұрын
我也是,看到那公式突然想起那不是我之前学过的 convolution 吗 😂
@nick94890
@nick94890 Жыл бұрын
中国大陆的高校教授一门课程叫做“信号与系统”,对学过这门课程的人,视频的的内容就相当的浅显了。你不妨去找本教材看一看。
@chenlightrain
@chenlightrain 2 жыл бұрын
谢谢你,真的解了我很久以来的困惑! 果然,聪明的男人最性感!
@ningmao7141
@ningmao7141 2 жыл бұрын
做深度学习用卷积神经网络快一年了 第一次有这么具象的理解!感谢!
@Triven0827
@Triven0827 2 жыл бұрын
謝謝媽咪叔,雖然知道CNN在做什麼 但對背後的物理意義不是很明白 今天的講解讓我有新的突破 感謝
@bill970386
@bill970386 3 жыл бұрын
我覺得可以像量子故事會一樣,講機器學習、深度學習的演變
@freespacefrank
@freespacefrank 2 жыл бұрын
感謝媽咪叔的說明,今天終於初步了解圖片處理的根本方式,您說明得很好,讓人能了解,謝謝
@jiangjet946
@jiangjet946 Жыл бұрын
讲得非常好,深入浅出
@ligangt85
@ligangt85 2 жыл бұрын
通过移码,倒序相乘再相加,寻找低频特征。 主要用于信号处理。 学到了 学到了
@stevenwong1099
@stevenwong1099 3 жыл бұрын
希望妈咪叔讲一下神经网络方面的知识,感谢
@ArchonLee3
@ArchonLee3 2 жыл бұрын
正在学深度学习,还没看到卷积网络,正好先了解一下~感谢
@yeeyun1467
@yeeyun1467 2 жыл бұрын
如果早點出這個系列,當初就可以學得輕鬆一點了
@beike263
@beike263 2 жыл бұрын
感谢up主的精彩讲解,希望推荐更多有趣的书给我们
@gossip_2023
@gossip_2023 2 жыл бұрын
本来想吐槽一下听不懂你讲的什么鬼天书,没学过微积分去逛商场还不能积分了咋滴。但是一看其他人的评论,我还是算了,其实你讲的挺好的,思路清晰并且深入浅出,一看就懂了!
@RobinHappyLife
@RobinHappyLife 2 жыл бұрын
妈咪叔利害!👍!堪称史上最清晰的卷积运算讲解。
@jiaweigong3411
@jiaweigong3411 2 жыл бұрын
非常感谢。
@Quantum898
@Quantum898 Жыл бұрын
thanks a lot for easy-to-understand explanation of CNN😀
@relenchen
@relenchen 2 жыл бұрын
卷积(convolution)解释得比较清晰。需要指出的是卷积神经网络(Convolutional Neural Network)并没有用到视频里的 convolution. 他的W没有翻转,其他基本一样,这个数学上叫correlation.
@chainqueueing5474
@chainqueueing5474 2 жыл бұрын
正確 ! 如所說, CNN 其實并没有用到视频里的 convolution. 其實是 product & sum, 如同內積, 是做 correlation. (correlation 是計算 和 3x3 or 5x5 or 7x7 Weighting pattern 的相似性)
@shawndee-p1o
@shawndee-p1o Жыл бұрын
卷积神经网络用到的数学运算不是卷积运算,而是相关运算。相关运算同卷积运算很像,也是两组数的“加乘”运算(数学中的傅里叶变换,拉普拉斯变换,… 都是两组数的加乘运算),相关运算比卷积运算更简单(不用反转),举例,相关运算: a1xb1+a2xb2+a3xb3, 卷积运算: a1xb3+a2xb2+a3xb1。由于历史原因,卷积神经网络是个误称(misnomer)。
@jianhualiu1553
@jianhualiu1553 16 күн бұрын
谢谢博主,不但讲解,还推荐书。
@qlee759
@qlee759 2 жыл бұрын
周二考试,懂模型原理了。 老师只给了积分公式啥都没标注也是绝了。
@gossip_2023
@gossip_2023 2 жыл бұрын
换我就只会问老师怎么能得到双倍积分以及积分要如何兑换礼品🎁
@chainqueueing5474
@chainqueueing5474 2 жыл бұрын
如 Ruilong Chen 所說, CNN 其實并没有用到视频里的 convolution. 其實是 product & sum, 如同內積, 是做 correlation. (correlation 是計算 和 3x3 or 5x5 or 7x7 Weighting pattern 的相似性)
@noname-pp4rb
@noname-pp4rb 2 жыл бұрын
终于明白为啥那么耳熟。因为26年前学习信号与系统时学过。
@eamoncat
@eamoncat 2 жыл бұрын
你比我大三届,学长
@Jersey1225
@Jersey1225 2 жыл бұрын
我的初恋那一刻一辈子都记得,估计是直接层到底了……
@hudaniel3213
@hudaniel3213 2 жыл бұрын
经过妈咪深入检出的讲解,我终于对卷积有了更加模糊的了解
@siweizhou5401
@siweizhou5401 2 жыл бұрын
这起很棒 友善催更!
@siweizhou5401
@siweizhou5401 2 жыл бұрын
期*
@ephaytang
@ephaytang 2 жыл бұрын
其实就是每一个像素把周围的像素也拿进来,按一定的参数算一下,得到一个新的值。
@dianeliu4483
@dianeliu4483 2 жыл бұрын
这集真的很好 我作为一个信息系统的研究生都总是不相信AI, 质疑他的有效性,看了这集决定去读读这本书
@df140
@df140 2 жыл бұрын
就像陣列雷達的相位取樣與濾波掃描,亦如夜視鏡抓取特定光波波長,也像製圖軟體在n個圖層到m個子圖層中加工選配,用一個運算核與輔助式來分層約化提取所需要的訊息特徵。 其實不只視角宇宙或元宇宙,整個真實世界本身都是如此,我們的所見,只限於我們的感知範圍與主觀選取,能透過工具而擴大,卻終究發現工具亦是受限反身性的主觀世界延伸,在那之外就是不可確定性的全息無客觀存在(Hawking, 2012)。 還是一樣,不論機械學習是如何進行反熵模擬,總體過程仍是發散而非真正收斂,背後持續配合內外部變化的動態核心主導判斷,仍非運算公式能夠獨立形成並取代大腦。 『#Σ困境』 『#非決定性』 -------------- 想起一個公案 比如一杯水 凡人見之是水 天人視是甘露 餓鬼眾生所見盡為濃血
@robintarlac9540
@robintarlac9540 2 жыл бұрын
欲望驱动认知。这是人工智能与人的本质区别。认知方式与学习能力即使超越人类,但没有欲望,就不可能自主创造。
@classic_guitar1891
@classic_guitar1891 2 жыл бұрын
深以为然,机器没有灵魂
@lucynomnom
@lucynomnom 2 жыл бұрын
人类的智慧是连续的,AI是离散的
@bebystudy
@bebystudy 2 жыл бұрын
太神了!講得有夠好
@sumiko1406
@sumiko1406 2 жыл бұрын
我的理解是卷积是一种算法,也就是两个序列相乘求和。找定某一种特定的序列w就可以找出另一个序列x的某种特征。所以找出w是关键,可能通过大量数据学习得到接近的一个w。但是同样也应该有其他算法可以完成这个目的。卷积算法的优势和劣势是什么呢?我们为啥要选择这个算法呢?
@dypolo11
@dypolo11 2 жыл бұрын
背后挂的画的是那个什么无限长的边,52个白键36个黑键的白色电子琴,麦克风用绿植遮了一半,衣服有小熊LOGO,似乎隐藏着什么暗示。
@川岸柳
@川岸柳 2 жыл бұрын
挂的画是 Mandelbrot
@dagouwu395
@dagouwu395 2 жыл бұрын
反卷积也很有用,在各种谱分析中反卷积可以提取出滤镜,用于特征分析
@hj_92
@hj_92 2 жыл бұрын
看到后面的应用才发现原来大学里的选修课, computer vision and image processing里有教过, 现在才知道这就是卷积神经网络…
@ideafreemac
@ideafreemac 7 ай бұрын
能否讲讲当有relu,或 dropout 等不可导函数时,对神经网络反向传播梯度的影响?
@任晉緯
@任晉緯 2 жыл бұрын
終於等到更新了
@gossip_2023
@gossip_2023 2 жыл бұрын
说到积分,妈咪叔下次能不能讲一下如何能得到双倍积分以及积分如何兑换?谢谢🙏
@rickli84
@rickli84 2 жыл бұрын
感谢!今年为了写篇关于自主定位系统的小论文看了好多关于自动驾驶 滤波器之类的东西,直到搞定论文也没真的明白卷积,看过这个视频终于觉得有点开窍了。。。
@SaintPiMi
@SaintPiMi 2 жыл бұрын
我说呢怎么看不懂你的论文,原来你写论文的时候都不明白卷积, 哈哈哈哈
@rickli84
@rickli84 2 жыл бұрын
@@SaintPiMi 善哉 善哉,我是搞应用的,能看懂理论当然好,看不懂的话也不妨碍,拿来用的都是被专家反复验证过的东西
@李明-g4t
@李明-g4t 2 жыл бұрын
人的自我意识快乐痛苦和欲望等等!
@henrygu6149
@henrygu6149 2 жыл бұрын
其实就是根据咱们高中学到的二项不等式定理,区域跟卷积核长得越像,卷积值越高。
@petercheung63
@petercheung63 2 жыл бұрын
正片,多謝
@洪瑜隆
@洪瑜隆 2 жыл бұрын
口條與論訴層次都抓的恰到好處!
@MrSuperminn
@MrSuperminn 2 жыл бұрын
我最喜歡看的就是字幕組暈倒的樣子
@ericthekingmaker9028
@ericthekingmaker9028 2 жыл бұрын
嗯,如果我们在注册网站的时候不再用通过那个九宫格找红绿灯,找大巴,找自行车的测试,计算机利用卷积神经网络识别的技术就算普及了😀
@caochris037201
@caochris037201 8 ай бұрын
订阅了你的youtube,总能学到不少新东西。在这个视频中的那个网站名能告诉我吗?我怎么寻找?
@userx001
@userx001 Жыл бұрын
提個問題:如果這個世界存在駕馭萬有的公式,這個公式是離散形式? 還是數位形式或是說數字形式?
@mickeyzhang1178
@mickeyzhang1178 3 жыл бұрын
看懂了,滤镜只是初级应用,人脸识别还需要更复杂的东西。
@worrybuffet7108
@worrybuffet7108 2 жыл бұрын
thanks for your explanation!
@eggdog
@eggdog 2 жыл бұрын
最近剛好在看python的deeplearning,真不錯
@longxiangyan4404
@longxiangyan4404 2 жыл бұрын
我挺好奇这些卷积核都是怎么找到的。
@mattlee6940
@mattlee6940 2 жыл бұрын
會透過訓練集資料反向傳播至淺層網路,給予權重和特定參數
@heieschokolade7275
@heieschokolade7275 2 жыл бұрын
个人感觉直接从傅里叶变换,频域分析入手比较好懂
@王剛-m7n
@王剛-m7n Ай бұрын
初中生能理解積分嗎?😬原來,卷,是這個意思,這麼卷起來了,虎頭豹尾環環咬住,鬆不開了!
@jimpaul15
@jimpaul15 2 жыл бұрын
很科普的一篇 讚
@maxliu1613
@maxliu1613 2 жыл бұрын
哈哈 又学到了!
@zaneLin0708
@zaneLin0708 2 жыл бұрын
我是看了好多神经网络的书籍和视频,3blue1brown讲得最全面清晰易懂。 虽然不是母语,可就是通俗易懂。中文节目看了和没看一样,有机会再讲都出来了……
@topstr
@topstr 2 жыл бұрын
convolution 感覺跟物理數學中的Green function 、heat kernel 有關係
@stephensu4371
@stephensu4371 3 жыл бұрын
媽叔,我想請你講DSP,數字信號處理
@abc19977
@abc19977 2 жыл бұрын
9:03,这个新的序列是怎么算出来的?W有三个,X有10个,他们怎么对应算的乘法呢?
@ashburnfish2775
@ashburnfish2775 2 жыл бұрын
就象你手里拿着放大镜去看书一样,放大镜比书小,你把放大镜从书的左边移到右边看一遍。所谓“滤”一遍。
@yan3876
@yan3876 2 жыл бұрын
將w倒敘跟x的1、2、3項相乘並求和作為新序列的第1項,以此類推
@fannewman4916
@fannewman4916 2 жыл бұрын
妈咪说取了中间的8个数,不知道是什么意思。
@bowenqiu9123
@bowenqiu9123 2 жыл бұрын
@@fannewman4916 3个w先和10个x里的前三个进行运算,这样就得到一个结果,然后w向右移动一个数字的位置,再和10个x里的第二,第三,和第四个数字进行运算,这样就得到第二个结果,以此类推。因为w有三个数字,x有10个数字,w只能向右移动7次,再加上第一次的结果,所以最终只能算出8个结果
@conanluo
@conanluo 2 жыл бұрын
1:54 我以為媽咪叔拿自己的書出來推廣🤑🤑,第一眼看。。。好像
@chenwilliam5176
@chenwilliam5176 Жыл бұрын
在臺灣,以前大學修微積分,Converlution 是翻譯為「褶積」🎉
@jack258001
@jack258001 3 жыл бұрын
求科普量子機器學習、Weak value、量子去相干
@qchentj
@qchentj 6 ай бұрын
8:59 那两个1 是咋算出来的?
@ghsc_jerry465
@ghsc_jerry465 2 жыл бұрын
妈咪说你能说一下为什么气味可以闻出疾病嗎?
@yifengchen5274
@yifengchen5274 2 жыл бұрын
9:02是怎么的出来的?
@eamoncat
@eamoncat 2 жыл бұрын
上学时教卷积积分的老师福建口音太浓了,搞得我很不喜欢听那门课,结果逃课几节下来发现就算去掉口音影响也听不懂了,于是破罐破摔就挂了,而且不仅挂了这个,信号原理也挂了。直到前些年我压力一大就会做梦明天考信号卷积积分我不会解。
@aimoll5046
@aimoll5046 3 жыл бұрын
妈咪叔终于讲到机器学习了吗,哈哈哈
@andotsy
@andotsy 3 жыл бұрын
卷积核是怎么计算出来的?一个一个试吗?
@路西西-k3j
@路西西-k3j 3 жыл бұрын
在CNN裡差不多就是一個一個試來看loss是多少,然後用神秘的梯度計算決定要怎麼調整核的數值。
@donghuang4185
@donghuang4185 2 жыл бұрын
backpropagation
@miantiaosi3366
@miantiaosi3366 3 жыл бұрын
演草硬核了。滤波器我明白了,很棒!
@harrysun691
@harrysun691 2 жыл бұрын
当年信号与系统课差点挂科了。。。😄
@ErhuRocker
@ErhuRocker 2 жыл бұрын
節目越來越有羅輯思維的感覺,但更加專精
@leixiao169
@leixiao169 2 жыл бұрын
谢谢 很好的视频
@tonyleung815
@tonyleung815 3 жыл бұрын
1:59 杨立昆:你礼貌么?
@deanzhang9099
@deanzhang9099 2 жыл бұрын
@zongjiyang2378
@zongjiyang2378 2 жыл бұрын
看之前的视频,啥内容的都能讲明白,都能看懂,这个讲的真是一头雾水
@jackblack6808
@jackblack6808 2 жыл бұрын
媽咪說真的是很硬核的優質頻道!
@李明-g4t
@李明-g4t 2 жыл бұрын
宇宙中绝大部分物质的存在方式都是类似银河系这样的涡旋星系!宇宙中物质几乎都是球形星体就够不可思议的了,而且都稳定的保持轨道像银河系一样绕着一个中心转圈!物理实验中一个微小的变量就会使结果不同,想想星系如何保持轨道的!牛顿在《自然哲学的数学原理》中说自发形成和轨道维持的原因不太可能仅仅是由于万有引力的存在!没法解释行星周期与3分之2次幂的关系和彗星问题!他把星系形成和轨道维系的原因归结为上帝的统治!这个问题叫做牛顿第一推动问题!牛顿时代的物理学在基本力上未发展完全!但是爱因斯坦时代考虑到了除了万有引力之外的电磁力和其他两种力,到目前为止物理上未发现第五种作用力!但是爱因斯坦也是说物理学没法解释星系形成和星系维持轨道的原因,他还是把这些的原因归结为上帝的统治!数学计算上当一个恒星和行星只有万有引力情况下,可以形成椭圆轨道的形态!可以不是绝对,概率上绝大多数可能性是相互吸引碰撞或融为一体,如果考虑其他星体的4种作用力就没法解释宇宙中星系如何自发形成星系和如何维持轨道的了!
@pinepuff999
@pinepuff999 2 жыл бұрын
妈咪叔搬到国外了吗
@gaulimalin1149
@gaulimalin1149 2 жыл бұрын
9:10 没看懂,第四个1/3是怎么算出来的
@louisc398louis4
@louisc398louis4 2 жыл бұрын
x序列連續三個數為組,最多八組。組中三個數倒著與w序列中的數相乘,乘完相加,得到一個數。 每一組一個數,所以共八個數。第四個1/3是(-1,1,1)這一組的結果。
@guodonglin5711
@guodonglin5711 2 жыл бұрын
那个1/3卷积后面部分的1和1/3是怎么算的?没看懂啊
@影视大全-h4g
@影视大全-h4g 2 жыл бұрын
@sparkenquito
@sparkenquito 2 жыл бұрын
还是回形针的讲解更易懂。
@Canton_Cuisine
@Canton_Cuisine 2 жыл бұрын
额,跟我学的不太一样,希望妈咪说去看一本书:白话深度学习和TensorFlow,也是非常简单的一本书。
@learn_azure_ez
@learn_azure_ez 2 жыл бұрын
厨娘和妈咪都这么厉害了😂我这个码农对卷积是一窍不通!
@Canton_Cuisine
@Canton_Cuisine 2 жыл бұрын
@@learn_azure_ez 额,如果你是做人工智能的,应该都懂吧
@ryanleung4228
@ryanleung4228 2 жыл бұрын
妈咪叔最近跑哪去了
@dehaojiang3332
@dehaojiang3332 2 жыл бұрын
竟然需要初中数学基础 哈哈哈 我现在只有一百以内加减法的水平
@光标陈
@光标陈 2 жыл бұрын
游戏图形领域也经常运用卷积!数学伟大
@魏博奕
@魏博奕 2 жыл бұрын
"並不是電腦越來越像人類,而是發現人類其實像電腦"
@祁雪松
@祁雪松 2 жыл бұрын
说好的初中数学就能看懂的呢?别和王刚老师推荐一道家常菜一样。
@dojjy5798
@dojjy5798 3 жыл бұрын
12:00 這個不就是高斯嗎
@tango200
@tango200 3 жыл бұрын
居然轻松看懂😂
@xanaduzhang186
@xanaduzhang186 2 жыл бұрын
数字图像处理里用到很多,估计很多工科的信号处理课程对这个都有介绍。。。不过我感觉,对0基础的人来说,只1个视频是讲不清楚的
@200斤肥宅
@200斤肥宅 2 жыл бұрын
人脸识别系统真是脆弱不堪……
@牟牟-f8v
@牟牟-f8v 3 жыл бұрын
热乎的,来啦
@艾弗艾尼斯
@艾弗艾尼斯 3 жыл бұрын
遇到公式我就障礙了🥺
@feifeishuishui
@feifeishuishui 2 жыл бұрын
李永乐也讲了一期卷积运算,我觉得比妈咪叔说得直观清楚很多
@艾弗艾尼斯
@艾弗艾尼斯 2 жыл бұрын
我也有看,這兩位老師我都好喜歡。
@jiangxu3895
@jiangxu3895 2 жыл бұрын
讲的好,讲出本质了,点赞了。我有个问题,机器学习里面的矩阵运算的时候,是否该遵循之前提到的一维的卷积运算规则呢,是否不一定遵循卷积运算规则呢?
@zijinzhang20
@zijinzhang20 2 жыл бұрын
卷起来,堆积
@刀哥-k8e
@刀哥-k8e 2 жыл бұрын
终于开始讲人工智能了
@ylu3003
@ylu3003 2 жыл бұрын
这个是不是就是概率里面的卷积公式
@wwilliam1928
@wwilliam1928 2 жыл бұрын
王冠上的明珠高不可攀,量子力学需要量子脑瓜,一个理论能听的懂的人越少就越尖端!顶一个
我们离可控核聚变还有多远?如何实现可控核聚变?(上)
15:12
🍉😋 #shorts
00:24
Денис Кукояка
Рет қаралды 3,8 МЛН
【理性派对】什么是弦理论?宇宙终极大统一理论?
38:33
妈咪说MommyTalk
Рет қаралды 210 М.
最强伽马射线暴能有多强?仅次于宇宙大爆炸!
8:21
妈咪说MommyTalk
Рет қаралды 23 М.
But what is a convolution?
23:01
3Blue1Brown
Рет қаралды 2,6 МЛН
困扰数学界20年难题被中国数学家解决了?
8:56
吟游诗人基德
Рет қаралды 44 М.
The moment we stopped understanding AI [AlexNet]
17:38
Welch Labs
Рет қаралды 1,1 МЛН
人脸识别啥原理?人工智能(二)卷积神经网络
21:41
李永乐老师
Рет қаралды 356 М.
三门问题反直觉?从信息角度解释选择背后的概率学原理
13:31