KZ
bin
Негізгі бет
Қазірдің өзінде танымал
Тікелей эфир
Ұнаған бейнелер
Қайтадан қараңыз
Жазылымдар
Кіру
Тіркелу
Ең жақсы KZbin
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
Жазылу
Able Programming
Able Programmingはプログラミングに関する知識を紹介し、プログラミング初学者を支援するチャンネルです。
47:33
【機械学習】クラスタリングの実践|スクレイピング、kmeans
5 жыл бұрын
36:01
【深層学習】誤差逆伝播法|バックプロパゲーション
5 жыл бұрын
42:22
【機械学習】次元削減の実践|主成分分析
5 жыл бұрын
32:09
【深層学習】損失関数/勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法
5 жыл бұрын
49:18
【機械学習】分類問題の実践|アンサンブル学習
6 жыл бұрын
52:10
【機械学習】回帰分析の実践|xgboost、交差検証、グリッドサーチ
6 жыл бұрын
22:30
【深層学習】活性化関数|ReLU、シグモイド関数、ソフトマックス関数
6 жыл бұрын
27:55
【深層学習】深層学習とは?|ディープラーニングの意味、ニューラルネットワーク
6 жыл бұрын
14:53
【位置情報編】位置情報型データの前処理と可視化まとめ
6 жыл бұрын
19:58
【時間編】時間型データの前処理と可視化まとめ
6 жыл бұрын
27:15
【カテゴリ編】カテゴリ型データの前処理と可視化まとめ
6 жыл бұрын
21:25
【数値編】数値型データの前処理と可視化まとめ
6 жыл бұрын
51:05
思いのままにグラフが描ける!!機械学習のためのmatplotlib超入門
6 жыл бұрын
45:26
自由にデータが扱える!!機械学習のためのpandas超入門
6 жыл бұрын
32:25
これだけは押さえよう!!機械学習のためのnumpy超入門
6 жыл бұрын
16:29
これでわかる!!Jupyter Notebook超入門
6 жыл бұрын
27:02
【機械学習】クラスター分析|階層的クラスタリング、k-meansクラスタリング
6 жыл бұрын
38:57
【機械学習】次元削減|教師なし学習、主成分分析
6 жыл бұрын
32:02
【機械学習】モデルの改良と前処理 |スケーリング、グリッドサーチ
6 жыл бұрын
37:50
【機械学習】モデルの評価と選択 | 交差検証、さまざまな評価基準
6 жыл бұрын
44:32
【機械学習】アンサンブル学習(後編)| AdaBoost、勾配ブースティング
6 жыл бұрын
42:41
【機械学習】アンサンブル学習(前編)| バギング・スタッキング・バンピング、ランダムフォレスト
6 жыл бұрын
32:38
【機械学習】決定木(CART)| 決定木の理論と実装
6 жыл бұрын
36:03
【機械学習】サポートベクトルマシン(後編)| カーネル法、多クラス分類・回帰問題
6 жыл бұрын
47:37
【Python】英単語テストを自動で作るプログラム!!
6 жыл бұрын
33:59
【機械学習】サポートベクトルマシン(中編)| ラグランジュの未定乗数法、双体問題
6 жыл бұрын
31:24
【機械学習】サポートベクトルマシン(前編)| SVMの理論、ハードマージンとソフトマージン
6 жыл бұрын
30:39
【機械学習】ロジスティック回帰(後編)| 多項ロジスティック回帰
6 жыл бұрын
19:26
【TensorFlow入門】TensorFlowを使ってロジスティック回帰を実装!!
6 жыл бұрын
Пікірлер
@村木辰吉
2 ай бұрын
神すぎますって!、
@ryokryok
2 ай бұрын
理論とPython実行により、とても分かりやすいです。勉強になります、ありがとうございます。Python基礎を勉強後、こちらの再生リストを先頭から勉強させていただいております。
@ogurahiroto9591
6 ай бұрын
0:43
@ogurahiroto9591
6 ай бұрын
13:03
@ogurahiroto9591
6 ай бұрын
23:10
@ogurahiroto9591
6 ай бұрын
26:45
@ogurahiroto9591
6 ай бұрын
4:10
@road_to_x0
8 ай бұрын
交差検証法は各種手法の平均スコアの高さからモデル選択する感じなんですね。 同じモデルに対してはk個のモデルができると思いますが(ロジスティック回帰でもパラメータの値が異なるモデルがk個できる)、その中でどのパラメータのロジスティック回帰が最良なのかは判断できないんですか?
@zozl5638
10 ай бұрын
現在コンペでスコアアップを目指して試行錯誤しているなか、アンサンブル学習にトライしようと資料を探していたらこちらの動画を発見しました。 とても分かりやすく解説されており、助かっています!
@kwa5952
11 ай бұрын
本当にわかりやすくて助かります!
@Naru-m7t
Жыл бұрын
わからない人間のための説明 という感じがして素晴らしいと思いました。
@opandapanda3478
Жыл бұрын
学ぶ側の注文が多過ぎるだろ笑 でも有識者のコメントでの訂正はすごい助かる
@shtm42
Жыл бұрын
わかりやすかったです!
@sssss-qg6xz
Жыл бұрын
勉強になりました!
@篤鳥居
Жыл бұрын
いろいろ試行錯誤してるからって正直に言うところがかわいいですね!
@satorumiyamoto5509
Жыл бұрын
めっちゃ分かりやすかったです。有難うございました!!!
@篤鳥居
Жыл бұрын
こんな難しい内容を言葉で説明できるってすごい。
@kengujin
2 жыл бұрын
早口だなーわかっている自分ではわかるだろうが、初学者または、分からない人向けではないねー。 難しいところでは、特に声が小さくなりききつらくなりますねー。
@岡田一秀-j7s
2 жыл бұрын
だから、もし要素の(b,a)と言う部分が最後まで、残るにしても、そこの要素も、どんどん変わって行くと捉えていいのでしょうか?(c,e)と言う枝に、dが次に結び付いた時は、(b,a)と言う値はどう言う値として更新されるのだろうか?また、サンプル数かもっと多くて、(b,a)に(d,f)が結びついた場合は、(b,a)はどのように更新されるのでしょうか?解れば、教えてください。
@岡田一秀-j7s
2 жыл бұрын
お世話になっております。どんどん、枝を見つけて行って、この各行列要素が、行番号か列番号が、この場合だとcとeのものとして、短い方を取るとして変更された、どんどんサイズが小さくなって行く筈の新行列(の各要素)は、木が出来るまで、保存されるのでしょうか?
@こうすけ-u6y
2 жыл бұрын
とても分かりやすかったです。ありがとうございます!
@cup77jp
2 жыл бұрын
最小二乗法を機械学習って呼ばないで欲しいw
@ryokryok
2 жыл бұрын
とてもわかり易いです。ありがとうございました!
@_hasune7587
2 жыл бұрын
この動画シリーズが大好きで、何回も見返しております。 質問ですが、9:08頃「間違っていたらゼロ」の部分は「あっていたらゼロ」の理解でよろしでしょうか。
@seiji7042
2 жыл бұрын
勉強になりました!ありがとうございます。
@DominantMotion
2 жыл бұрын
活性化関数が恒等関数でない場合のほうが一般的なのではないでしょうか?「恒等関数とする」というのは単に無いものとするということで、現実のNNの理解をしようとする時に、疑問しか残りません。
@うさみみんらでぃんちゃん
2 жыл бұрын
わかりやすくて助かります。
@資格合格-h2r
2 жыл бұрын
動画分かりやすくて助かります。いつも視聴させていただいています。 ところでxbgoostの正解率を算出した後なので、そのモデルを使って実際のデータを予測はできるのでしょうか。 色々と調べたのですがどのサイトも正解率出して終わり。。。みたいな物が多く実際の活用法が分かりません。 最近投稿されてないようですがもし時間有りましたらご回答いただけるとありがたいです。 able programmingさんは物凄く分かりやすく丁寧になので本当に助かってます。
@資格合格-h2r
2 жыл бұрын
動画は、もうやってないんですね。。。 最高の教材が1つ無くなっちゃいましたね。。
@MJ-qg6jk
2 жыл бұрын
jupiterの説明ありがとうございました。大変参考になりました。
@いいいあああ-e4i
2 жыл бұрын
統計学準1級学習のために視聴しました。とても分かりやすかったです!
@5296daisukidesu
2 жыл бұрын
一般化と具体例を上手く駆使して説明されているので、すごくわかりやすいです。
@akiyoshihagiwara5551
2 жыл бұрын
非常に判りやすい。感動した。
@takayu5230
3 жыл бұрын
22:03 dL(B)/dBのdL(B)は--> dE(B)だと思います。
@doggy9745
3 жыл бұрын
19:00あたり?x,y,yのそれぞれでやっている事はわかるのですが、元々関連のない配列のxとy同士をなぜ最後にx[:][y==1]で関連付けることができるのでしょうか?あたかも同じ表に入っているかのように
@lah8322
2 жыл бұрын
yのなかで1である要素の要素番号を抽出してから、xの中のその要素番号の要素をとってきているのだと思いますよ
@letskalimba
3 жыл бұрын
めちゃめちゃわかりやすい
@Go-dn1bi
3 жыл бұрын
マージンは最大化したいけどξは最小化したいから、 一つの式でまとめるには両方ともを最大化か最小化に統一しなくちゃいけないので、 今回はマージンの項を逆数にすることで、最小化問題に統一したという解釈で合ってますかね?
@hodakamatsuzaki730
3 жыл бұрын
こんなに分かりやすい動画を無料で聞けるなんて、、いい時代ですね
@アースジェット-p9m
3 жыл бұрын
大変分かりやすかったです。 初心者なので定期的に見に来ます。
@yukitel
3 жыл бұрын
これはDeNA 20卒 のAbeTatsuhiro さん?
@森比呂
3 жыл бұрын
初学者ですが、いつも繰り返し見て参考にさせていただいております!
@のりチャンネル-y1c
3 жыл бұрын
質問があります。コードは時間かけて作れましたが!日本語が来る選択肢のところだけが印刷前に実行したら出力されず躓いています。meaningsのところもanswers option のところもエラーは発生せず上手く作れたと思ったんですが、まだまだ難しいなぁと感じました。 これで単語や暗記科目のoutput環境は強くなれそうな気がします。
@yone1998
3 жыл бұрын
30:10 wが重み、yが各ニューロンにおける値とすると、zが活性化関数でしょうか? あと、本質的な問いではないかと思いますが、y_1^2を通る経路だけ考えているようにみえるのですが、y_2^2を通る経路も考える必要があるのではないでしょうか?つまりは全微分
@yone1998
3 жыл бұрын
具体例 nはデータの個数: 人のID(1,2,3,4) kはクラス: 服のサイズ(SML) t_{nk}= [0 1 0 0 0 1 0 0 1 1 0 0] y_{nk}= [0.1 0.8 0.1 0.3 0.1 0.6 0.2 0.3 0.5 0.4 0.3 0.3]
@haya_1101_te
3 жыл бұрын
5回以上周回してようやく全体が見えました! 最後のδが逆伝播する様子で鳥肌たってます笑 とても分かり易かったですが、私の能力不足で理解するのに丸一日かかってしまいました
@user-ng4rq5xi7v
3 жыл бұрын
人工知能=統計!
@まっつ-x1g
3 жыл бұрын
素晴らしい
@murasso2736
3 жыл бұрын
17:15でfor文などを使うときのために、axesを一次元配列にしましたけど、実際にfor文で3つのグラフを書くのはどうすればようでしょうか?単純に fig, axes=plt.subplots(2,2,figsize=(20,12)) for i in range(1,4): axes.ravel()[i-1].plot(x_i,y_i) plot.show() だと、x is not definedというエラーが出ました。
@ymysymy4147
3 жыл бұрын
わかりやすかったです ありがとう(°▽°)
@takayamayoshikazu2782
3 жыл бұрын
1:38 回帰問題?怪奇問題? なんとも怪奇な単語だ
@takayamayoshikazu2782
3 жыл бұрын
19:30 なぜ直線に分離出来ないのかサッパリ分からない😅 スライドを動画にして説明して欲しいです
@ざわえもん-b6p
2 жыл бұрын
一本だけ線を引いて赤と青をそれぞれ分類することができないという意味ですね.もしするとしたら曲線になってしまいます
@上田勝彦-j4n
3 жыл бұрын
前のAIの説明画像は理論的なのに、本画像はツールの操作説明になっている 作成したモデルのテストの考え方を最初に説明しないと”技は盗んで覚えろ” という師匠と呼ばれるかたと変わらない説明になっている