GAN论文逐段精读【论文精读】

  Рет қаралды 22,178

跟李沐学AI

跟李沐学AI

Күн бұрын

更多论文精读:github.com/mli...

Пікірлер: 23
@JiancongXie
@JiancongXie Жыл бұрын
感谢每次都能以简单易懂的文字描述论文,希望解读得越来越好
@XZJAK
@XZJAK 2 жыл бұрын
真不错,真的很不错!做的好,写的好,讲的好。讲论文这件事太有意义了!
@chaozhang4751
@chaozhang4751 3 жыл бұрын
期待接下来关于gan改进的工作的解读!!
@leefeng5067
@leefeng5067 2 жыл бұрын
谢谢李老师,论文系列,非常赞,受益终身
@expirinot8724
@expirinot8724 3 жыл бұрын
谢谢李老师!真的很喜欢这些读论文的videos!
@尹丹-q5w
@尹丹-q5w 2 жыл бұрын
谢谢李老师!您的论文精读视频对我非常有用,期待您的下一个video~
@ruth-sevenj1244
@ruth-sevenj1244 8 ай бұрын
终于能看懂了
@u2coldplay844
@u2coldplay844 2 жыл бұрын
其实LSTM 是Sepp Hochreiter 91年的德文硕士论文改写的英文版(97年), LSTM 名字来自于Geofrey Hinton 的建议。
@dragonlive0202
@dragonlive0202 3 жыл бұрын
学渣都听得懂,真的牛
@hubertv5794
@hubertv5794 2 жыл бұрын
真正的学渣是不会看这种视频的
@deepml-h8k
@deepml-h8k Жыл бұрын
感谢!
@melodychou5465
@melodychou5465 Жыл бұрын
diffusion model可以接續再講下去嗎? 現在甚至diffusion segmentation 有沒有機會在說一下這個議題
@zhanlucas935
@zhanlucas935 Жыл бұрын
感谢
@kalex9631
@kalex9631 8 ай бұрын
不能分开 也可能是分类器不够强大
@xiaotianxiaotian9974
@xiaotianxiaotian9974 Жыл бұрын
顶顶沐神
@minglee5164
@minglee5164 2 жыл бұрын
Wow
@CTT36544
@CTT36544 Жыл бұрын
能具体说说0:22和0:27这两个 projects么?或者,有人有这两个projects的代码或者相关论文么?谢谢!
@xugangye6494
@xugangye6494 2 жыл бұрын
Regarding the min max optimization objective function, it's actually as same as cross-entropy negative loss = sum{y_i*logP(y_i|x_i) + (1- y_i)*log(1-P(y_i|x_i)) for i}, where the posterior P(y_i|x_i) = D(x_i; theta_D) is discriminator. negative loss = sum{logD(x_i; theta_D) for i: y_i = 1} + sum{log(1-D(x_i; theta_D)) for i: y_i = 0} = sum{logD(x_i; theta_D) for i: y_i = 1} + sum{log(1-D(g(z_i; theta_g); theta_D)) for i: y_i = 0} The min max optimization is to 1 maximize negative loss (over D) when g is fixed. In this step, both two parts are involved. 2 minimize negative loss (over g) when D is fixed. In this step, only the part containing g is involved.
@noseafoodlee2878
@noseafoodlee2878 Жыл бұрын
原来这个gan真的有那个意思....
@justinzhao-x3d
@justinzhao-x3d Жыл бұрын
GAN:道高一尺,魔高一丈。
@ralfchen8917
@ralfchen8917 3 жыл бұрын
原来是这个"GAN"
@user-wzb
@user-wzb 3 жыл бұрын
想起账号了!
@ilpreterosso
@ilpreterosso Жыл бұрын
感谢
ViT论文逐段精读【论文精读】
1:11:31
跟李沐学AI
Рет қаралды 55 М.
What are GANs (Generative Adversarial Networks)?
8:23
IBM Technology
Рет қаралды 319 М.
人是不能做到吗?#火影忍者 #家人  #佐助
00:20
火影忍者一家
Рет қаралды 20 МЛН
小丑教训坏蛋 #小丑 #天使 #shorts
00:49
好人小丑
Рет қаралды 54 МЛН
MAE 论文逐段精读【论文精读】
47:04
跟李沐学AI
Рет қаралды 17 М.
BERT 论文逐段精读【论文精读】
45:49
跟李沐学AI
Рет қаралды 34 М.
零基础多图详解图神经网络(GNN/GCN)
1:06:19
跟李沐学AI
Рет қаралды 67 М.
#4.6 GAN 生成对抗网络 (PyTorch tutorial 神经网络 教学)
15:22
A Friendly Introduction to Generative Adversarial Networks (GANs)
21:01
Serrano.Academy
Рет қаралды 268 М.
InstructGPT 论文精读【论文精读】
1:07:11
跟李沐学AI
Рет қаралды 85 М.
人是不能做到吗?#火影忍者 #家人  #佐助
00:20
火影忍者一家
Рет қаралды 20 МЛН