Пікірлер
@村木辰吉
@村木辰吉 2 ай бұрын
神すぎますって!、
@ryokryok
@ryokryok 2 ай бұрын
理論とPython実行により、とても分かりやすいです。勉強になります、ありがとうございます。Python基礎を勉強後、こちらの再生リストを先頭から勉強させていただいております。
@ogurahiroto9591
@ogurahiroto9591 6 ай бұрын
0:43
@ogurahiroto9591
@ogurahiroto9591 6 ай бұрын
13:03
@ogurahiroto9591
@ogurahiroto9591 6 ай бұрын
23:10
@ogurahiroto9591
@ogurahiroto9591 6 ай бұрын
26:45
@ogurahiroto9591
@ogurahiroto9591 6 ай бұрын
4:10
@road_to_x0
@road_to_x0 8 ай бұрын
交差検証法は各種手法の平均スコアの高さからモデル選択する感じなんですね。 同じモデルに対してはk個のモデルができると思いますが(ロジスティック回帰でもパラメータの値が異なるモデルがk個できる)、その中でどのパラメータのロジスティック回帰が最良なのかは判断できないんですか?
@zozl5638
@zozl5638 10 ай бұрын
現在コンペでスコアアップを目指して試行錯誤しているなか、アンサンブル学習にトライしようと資料を探していたらこちらの動画を発見しました。 とても分かりやすく解説されており、助かっています!
@kwa5952
@kwa5952 11 ай бұрын
本当にわかりやすくて助かります!
@Naru-m7t
@Naru-m7t Жыл бұрын
わからない人間のための説明 という感じがして素晴らしいと思いました。
@opandapanda3478
@opandapanda3478 Жыл бұрын
学ぶ側の注文が多過ぎるだろ笑 でも有識者のコメントでの訂正はすごい助かる
@shtm42
@shtm42 Жыл бұрын
わかりやすかったです!
@sssss-qg6xz
@sssss-qg6xz Жыл бұрын
勉強になりました!
@篤鳥居
@篤鳥居 Жыл бұрын
いろいろ試行錯誤してるからって正直に言うところがかわいいですね!
@satorumiyamoto5509
@satorumiyamoto5509 Жыл бұрын
めっちゃ分かりやすかったです。有難うございました!!!
@篤鳥居
@篤鳥居 Жыл бұрын
こんな難しい内容を言葉で説明できるってすごい。
@kengujin
@kengujin 2 жыл бұрын
早口だなーわかっている自分ではわかるだろうが、初学者または、分からない人向けではないねー。 難しいところでは、特に声が小さくなりききつらくなりますねー。
@岡田一秀-j7s
@岡田一秀-j7s 2 жыл бұрын
だから、もし要素の(b,a)と言う部分が最後まで、残るにしても、そこの要素も、どんどん変わって行くと捉えていいのでしょうか?(c,e)と言う枝に、dが次に結び付いた時は、(b,a)と言う値はどう言う値として更新されるのだろうか?また、サンプル数かもっと多くて、(b,a)に(d,f)が結びついた場合は、(b,a)はどのように更新されるのでしょうか?解れば、教えてください。
@岡田一秀-j7s
@岡田一秀-j7s 2 жыл бұрын
お世話になっております。どんどん、枝を見つけて行って、この各行列要素が、行番号か列番号が、この場合だとcとeのものとして、短い方を取るとして変更された、どんどんサイズが小さくなって行く筈の新行列(の各要素)は、木が出来るまで、保存されるのでしょうか?
@こうすけ-u6y
@こうすけ-u6y 2 жыл бұрын
とても分かりやすかったです。ありがとうございます!
@cup77jp
@cup77jp 2 жыл бұрын
最小二乗法を機械学習って呼ばないで欲しいw
@ryokryok
@ryokryok 2 жыл бұрын
とてもわかり易いです。ありがとうございました!
@_hasune7587
@_hasune7587 2 жыл бұрын
この動画シリーズが大好きで、何回も見返しております。 質問ですが、9:08頃「間違っていたらゼロ」の部分は「あっていたらゼロ」の理解でよろしでしょうか。
@seiji7042
@seiji7042 2 жыл бұрын
勉強になりました!ありがとうございます。
@DominantMotion
@DominantMotion 2 жыл бұрын
活性化関数が恒等関数でない場合のほうが一般的なのではないでしょうか?「恒等関数とする」というのは単に無いものとするということで、現実のNNの理解をしようとする時に、疑問しか残りません。
@うさみみんらでぃんちゃん
@うさみみんらでぃんちゃん 2 жыл бұрын
わかりやすくて助かります。
@資格合格-h2r
@資格合格-h2r 2 жыл бұрын
動画分かりやすくて助かります。いつも視聴させていただいています。 ところでxbgoostの正解率を算出した後なので、そのモデルを使って実際のデータを予測はできるのでしょうか。 色々と調べたのですがどのサイトも正解率出して終わり。。。みたいな物が多く実際の活用法が分かりません。 最近投稿されてないようですがもし時間有りましたらご回答いただけるとありがたいです。 able programmingさんは物凄く分かりやすく丁寧になので本当に助かってます。
@資格合格-h2r
@資格合格-h2r 2 жыл бұрын
動画は、もうやってないんですね。。。 最高の教材が1つ無くなっちゃいましたね。。
@MJ-qg6jk
@MJ-qg6jk 2 жыл бұрын
jupiterの説明ありがとうございました。大変参考になりました。
@いいいあああ-e4i
@いいいあああ-e4i 2 жыл бұрын
統計学準1級学習のために視聴しました。とても分かりやすかったです!
@5296daisukidesu
@5296daisukidesu 2 жыл бұрын
一般化と具体例を上手く駆使して説明されているので、すごくわかりやすいです。
@akiyoshihagiwara5551
@akiyoshihagiwara5551 2 жыл бұрын
非常に判りやすい。感動した。
@takayu5230
@takayu5230 3 жыл бұрын
22:03 dL(B)/dBのdL(B)は--> dE(B)だと思います。
@doggy9745
@doggy9745 3 жыл бұрын
19:00あたり?x,y,yのそれぞれでやっている事はわかるのですが、元々関連のない配列のxとy同士をなぜ最後にx[:][y==1]で関連付けることができるのでしょうか?あたかも同じ表に入っているかのように
@lah8322
@lah8322 2 жыл бұрын
yのなかで1である要素の要素番号を抽出してから、xの中のその要素番号の要素をとってきているのだと思いますよ
@letskalimba
@letskalimba 3 жыл бұрын
めちゃめちゃわかりやすい
@Go-dn1bi
@Go-dn1bi 3 жыл бұрын
マージンは最大化したいけどξは最小化したいから、 一つの式でまとめるには両方ともを最大化か最小化に統一しなくちゃいけないので、 今回はマージンの項を逆数にすることで、最小化問題に統一したという解釈で合ってますかね?
@hodakamatsuzaki730
@hodakamatsuzaki730 3 жыл бұрын
こんなに分かりやすい動画を無料で聞けるなんて、、いい時代ですね
@アースジェット-p9m
@アースジェット-p9m 3 жыл бұрын
大変分かりやすかったです。 初心者なので定期的に見に来ます。
@yukitel
@yukitel 3 жыл бұрын
これはDeNA 20卒 のAbeTatsuhiro さん?
@森比呂
@森比呂 3 жыл бұрын
初学者ですが、いつも繰り返し見て参考にさせていただいております!
@のりチャンネル-y1c
@のりチャンネル-y1c 3 жыл бұрын
質問があります。コードは時間かけて作れましたが!日本語が来る選択肢のところだけが印刷前に実行したら出力されず躓いています。meaningsのところもanswers option のところもエラーは発生せず上手く作れたと思ったんですが、まだまだ難しいなぁと感じました。 これで単語や暗記科目のoutput環境は強くなれそうな気がします。
@yone1998
@yone1998 3 жыл бұрын
30:10 wが重み、yが各ニューロンにおける値とすると、zが活性化関数でしょうか? あと、本質的な問いではないかと思いますが、y_1^2を通る経路だけ考えているようにみえるのですが、y_2^2を通る経路も考える必要があるのではないでしょうか?つまりは全微分
@yone1998
@yone1998 3 жыл бұрын
具体例 nはデータの個数: 人のID(1,2,3,4) kはクラス: 服のサイズ(SML) t_{nk}= [0 1 0 0 0 1 0 0 1 1 0 0] y_{nk}= [0.1 0.8 0.1 0.3 0.1 0.6 0.2 0.3 0.5 0.4 0.3 0.3]
@haya_1101_te
@haya_1101_te 3 жыл бұрын
5回以上周回してようやく全体が見えました! 最後のδが逆伝播する様子で鳥肌たってます笑 とても分かり易かったですが、私の能力不足で理解するのに丸一日かかってしまいました
@user-ng4rq5xi7v
@user-ng4rq5xi7v 3 жыл бұрын
人工知能=統計!
@まっつ-x1g
@まっつ-x1g 3 жыл бұрын
素晴らしい
@murasso2736
@murasso2736 3 жыл бұрын
17:15でfor文などを使うときのために、axesを一次元配列にしましたけど、実際にfor文で3つのグラフを書くのはどうすればようでしょうか?単純に fig, axes=plt.subplots(2,2,figsize=(20,12)) for i in range(1,4): axes.ravel()[i-1].plot(x_i,y_i) plot.show() だと、x is not definedというエラーが出ました。
@ymysymy4147
@ymysymy4147 3 жыл бұрын
わかりやすかったです ありがとう(°▽°)
@takayamayoshikazu2782
@takayamayoshikazu2782 3 жыл бұрын
1:38 回帰問題?怪奇問題? なんとも怪奇な単語だ
@takayamayoshikazu2782
@takayamayoshikazu2782 3 жыл бұрын
19:30 なぜ直線に分離出来ないのかサッパリ分からない😅 スライドを動画にして説明して欲しいです
@ざわえもん-b6p
@ざわえもん-b6p 2 жыл бұрын
一本だけ線を引いて赤と青をそれぞれ分類することができないという意味ですね.もしするとしたら曲線になってしまいます
@上田勝彦-j4n
@上田勝彦-j4n 3 жыл бұрын
前のAIの説明画像は理論的なのに、本画像はツールの操作説明になっている 作成したモデルのテストの考え方を最初に説明しないと”技は盗んで覚えろ” という師匠と呼ばれるかたと変わらない説明になっている