LLMはどう知識を記憶しているか | Chapter 7, 深層学習

  Рет қаралды 21,061

3Blue1BrownJapan

3Blue1BrownJapan

Күн бұрын

Пікірлер: 29
@underscoress
@underscoress 4 күн бұрын
youtube普段はほとんど倍速で観てるけど、このチャンネルのこのシリーズは等倍で観ても理解が追いつかなくなる
@MK_AGI
@MK_AGI 4 күн бұрын
素晴らしい、私も疑問に思っていた。
@ka-vb3we
@ka-vb3we 4 күн бұрын
待ってました! ありがとうございます!
@machida5114
@machida5114 4 күн бұрын
非線形述語層が意味的知識を保持しているということですね。😎
@machida5114
@machida5114 4 күн бұрын
非線形述語が意味的判断基準を獲得していると思われます。 ここで、「意味」とは、行動(/発語)する論理的根拠、つまり 行動(/発語)因果力を指します。
@way6202
@way6202 51 минут бұрын
いい動画をありがとう
@non-mtg
@non-mtg 4 күн бұрын
自分がこの分野を勉強した数年前よりもLLMの中身が分かってきてるの科学の進歩を感じられてとても良い 活性化関数はGPT-3のレベルでもReLU使ってるんだ
@Mos-u4r
@Mos-u4r 4 күн бұрын
GPTシリーズはすべてGELUを使用していたと思います
@sibain_wuw
@sibain_wuw 4 күн бұрын
待ってました
@まさぽこP
@まさぽこP 4 күн бұрын
保存できる次元数が多いので、同じトークンでも周りのトークンによる影響を細かく学習できるってことかな。例えば、「村」ってことばでも現実世界なのか、日本の村なのか、海外の村なのか、異世界の村なのかって感じで影響に対するフラグや記憶次元を確保できる。だから人間の脳と同じように正確に推論ができると
@merdekaataumati1949
@merdekaataumati1949 4 күн бұрын
17:10 ここからのジョンソン-リンデンシュトラウスのレンマの流れは、目からうろこだった。 N次元空間では、N個の概念しか思考できないと思ってた。 実際は、e^(ε N)もの概念を思考できるのか。
@dharmazeroalpha
@dharmazeroalpha 2 күн бұрын
特に19分過ぎからのジョンソン-リンデンストロースの補題についての解説は非常に重要ですね。LLMがどれだけ汎用人工知能GAIに肉薄できるのか興味深い示唆になっています。
@lugensmotacillaalba2472
@lugensmotacillaalba2472 4 сағат бұрын
ふむふむ。なるほどね🤔
@capyzo
@capyzo 2 күн бұрын
GPTのパラメータ数ってこういうことなんだと、ちょっと解像度上がるだけですごいゾクゾクします! 直交じゃなくて89-91°にすることで表現力が爆上がりするアイデアもマジすごい!セレンディピティ的なことがおこってるんでしょうか?
@食用お味噌汁
@食用お味噌汁 17 сағат бұрын
この言語ベクトルって、途中までの学習で止めると多分why japanese people!?ってAIも感じるんだと思う😂 ベクトル的にこうきたらこうなんじゃねえの!?って
@食用お味噌汁
@食用お味噌汁 3 күн бұрын
神経回路を模倣した計算っていうアイデアは昔からあるけど、ようやく現実的に応用ができるレベルまで発展しましたね 既存のアーキテクチャの計算資源で十分成果が出ているのでコンセプトとしては本当に正しいものだったと思います
@wswsan
@wswsan Күн бұрын
3B1Bオリジナルのこの次の動画, めちゃくちゃ興味あるけど中盤から理解追いつかなくなってる
@徳川慶喜-u6o
@徳川慶喜-u6o 3 күн бұрын
使えてるけど説明できない部分があるのが驚きだった 過去の麻酔のメカニズムのような
@user-ml4qd8kh4l
@user-ml4qd8kh4l 2 күн бұрын
8:50でB↑=-1にして、10:50でRELUで+1.0以外を吹っ飛ばしてるようだけど、B↑が-1なのはたまたまじゃない? 反例として、8:50の上から3つ目のB↑が+5.0だから通っちゃってるけど、結果が+1.5ってことはW↓Eiは-4.0だったってことになるはず。つまりマイケルジョーダンと全く関係ない情報も、B↑のさじ加減によって通っちゃってるんだがどういうことだ? 仮に8:50の上から1つ目しか見ないとしても、B↑のさじ加減で変わるくない? それとも、ニューラルネットワークだから良い具合にB↑も調整してくれるのかな?わからん というかそもそも、17:00のように1つだけにマイケルジョーダンの意味が入ってるって思考ロックが間違ってるのか? うーん、わからん
@ああ-k5z1r
@ああ-k5z1r 3 күн бұрын
コウメ太夫ってすごいんだなー
@kosetei1
@kosetei1 2 күн бұрын
Chapter6までどこいった...
@クレオパトラ-y5f
@クレオパトラ-y5f 3 күн бұрын
これってノーベル賞に絡む?
@ぺんぎん-k3c
@ぺんぎん-k3c 2 күн бұрын
Machine Learningの研究がノーベル賞取りましたね!
@うぅろん茶
@うぅろん茶 4 күн бұрын
数式がたくさんあって難しく感じるけど、はい〜いいえの質問を何万項目もしてるって考えれば分かった気になれそうな…
@goc-2611
@goc-2611 4 күн бұрын
分かった気になってるだけってことを頭に留めておいてね……(遠い目)
@さっし-o5m
@さっし-o5m 2 күн бұрын
このチャンネルの動画9割理解出来んけど見てる
@motoki7419
@motoki7419 2 күн бұрын
それは素晴らしいことですね! その繰り返しがあなたの脳内MLPに情報を与えているでしょう
@本堂啓三郎
@本堂啓三郎 Күн бұрын
​@@motoki7419最高。希望がある。
@MultiYUUHI
@MultiYUUHI 3 күн бұрын
全然分からなかった
Why Does Diffusion Work Better than Auto-Regression?
20:18
Algorithmic Simplicity
Рет қаралды 338 М.
РОДИТЕЛИ НА ШКОЛЬНОМ ПРАЗДНИКЕ
01:00
SIDELNIKOVVV
Рет қаралды 3,6 МЛН
How it feels when u walk through first class
00:52
Adam W
Рет қаралды 7 МЛН
Running With Bigger And Bigger Lunchlys
00:18
MrBeast
Рет қаралды 132 МЛН
GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
26:36
3Blue1BrownJapan
Рет қаралды 162 М.
How are holograms possible?
46:24
3Blue1Brown
Рет қаралды 758 М.
The moment we stopped understanding AI [AlexNet]
17:38
Welch Labs
Рет қаралды 1,1 МЛН
80年前のプログラマーってどんな感じ?#144
36:00
ゆるコンピュータ科学ラジオ
Рет қаралды 49 М.
Generative Model That Won 2024 Nobel Prize
33:04
Artem Kirsanov
Рет қаралды 75 М.
群論 と 19万6883次元のモンスター
21:34
3Blue1BrownJapan
Рет қаралды 87 М.
РОДИТЕЛИ НА ШКОЛЬНОМ ПРАЗДНИКЕ
01:00
SIDELNIKOVVV
Рет қаралды 3,6 МЛН