KZ
bin
Негізгі бет
Қазірдің өзінде танымал
Тікелей эфир
Ұнаған бейнелер
Қайтадан қараңыз
Жазылымдар
Кіру
Тіркелу
Ең жақсы KZbin
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
【機械学習】線形回帰(後編)| 重回帰と正則化
46:10
【機械学習】ロジスティック回帰(後編)| 多項ロジスティック回帰
30:39
Sigma baby, you've conquered soap! 😲😮💨 LeoNata family #shorts
00:37
Wait… Maxim, did you just eat 8 BURGERS?!🍔😳| Free Fire Official
00:13
When u fight over the armrest
00:41
Smart Sigma Kid #funny #sigma
00:14
【機械学習】線形回帰(前編)| 線形回帰の理論
Рет қаралды 39,736
Facebook
Twitter
Жүктеу
1
Жазылу 16 М.
Able Programming
Күн бұрын
Пікірлер: 10
@Naru-m7t
Жыл бұрын
わからない人間のための説明 という感じがして素晴らしいと思いました。
@TA-yh2qy
5 жыл бұрын
いつも質の高い動画ありがとうございます。日本語で機械学習を詳しく説明してる動画が他に少ないので助かります。
@yuuch01
4 жыл бұрын
資料も綺麗、説明も明快でわかりやすいです。ありがとうございます。
@datsuryoku
5 жыл бұрын
わかりやすい説明ですね。理解の助けになりました。ありがとうございました。
@road_to_x0
4 жыл бұрын
分かりやすいです!
@penguin_coco2601
4 жыл бұрын
9:36 では損失関数はここでは二乗誤差の関数だから二次関数( = おわん型) と言っているのだけど、15:50で出てくるプロットはお椀が二つあります。損失関数は高次関数にもなりうるということですよね?損失関数が高次関数になるのはどういう時ですか?多次元のデータで最小二乗法をしてるんでしょうか。頭いい人教えてください。
@上田夏月
5 жыл бұрын
失礼します、非常に分かりやすい解説ありがとうございます。 一つ気になったのですが、18:14でインポートをされていますが、"matplotlib inline"を# でコメントアウトされているのはなぜでしょうか? 私の見た書籍では、matplotをインポートする際に、よく"%matplotlib inline"もセットで書かれていたので、もしかしてその間違いでは、と思ったのですが、どうでしょうか?
@shinnosukekamohara8317
4 жыл бұрын
LinearRegression().fit(x,y.ravel()) の所で、yを(100,1)から(100,) と変換していますが、xにも同様の操作を行わないのはなぜでしょうか? x y でデータの配列が異なるのは数学的に正しいのでしょうか? 分かる方、ご教授ください。
@ogurahiroto9591
6 ай бұрын
4:10
@jutam8394
5 жыл бұрын
マイナス評価0ってすごし
46:10
【機械学習】線形回帰(後編)| 重回帰と正則化
Able Programming
Рет қаралды 30 М.
30:39
【機械学習】ロジスティック回帰(後編)| 多項ロジスティック回帰
Able Programming
Рет қаралды 18 М.
00:37
Sigma baby, you've conquered soap! 😲😮💨 LeoNata family #shorts
LeoNata Family
Рет қаралды 37 МЛН
00:13
Wait… Maxim, did you just eat 8 BURGERS?!🍔😳| Free Fire Official
Garena Free Fire Global
Рет қаралды 9 МЛН
00:41
When u fight over the armrest
Adam W
Рет қаралды 18 МЛН
00:14
Smart Sigma Kid #funny #sigma
CRAZY GREAPA
Рет қаралды 103 МЛН
31:24
【機械学習】サポートベクトルマシン(前編)| SVMの理論、ハードマージンとソフトマージン
Able Programming
Рет қаралды 36 М.
37:14
行列表記の統計学入門 第3回 最小二乗推定量の導出
統計学講義用
Рет қаралды 4,5 М.
30:46
【機械学習】ロジスティック回帰(前編)| ロジスティック回帰の理論と実装
Able Programming
Рет қаралды 42 М.
1:01:19
【機械学習】機械学習入門 / k最近傍法 | 機械学習の手順と基本的なアルゴリズム
Able Programming
Рет қаралды 67 М.
36:03
【機械学習】サポートベクトルマシン(後編)| カーネル法、多クラス分類・回帰問題
Able Programming
Рет қаралды 20 М.
33:59
【機械学習】サポートベクトルマシン(中編)| ラグランジュの未定乗数法、双体問題
Able Programming
Рет қаралды 19 М.
9:20
【10分で分かる】回帰分析について解説!線形回帰分析を基本に少しだけ応用手法も触れおこう!
スタビジ【誰でもAIデータサイエンス】byウマたん
Рет қаралды 41 М.
15:48
【簡単・お手軽】AI講座07.単回帰分析 <Python実装編>|Pythonで始める人工知能入門講座
キノコード / プログラミング学習チャンネル
Рет қаралды 13 М.
42:41
【機械学習】アンサンブル学習(前編)| バギング・スタッキング・バンピング、ランダムフォレスト
Able Programming
Рет қаралды 19 М.
32:38
【機械学習】決定木(CART)| 決定木の理論と実装
Able Programming
Рет қаралды 23 М.
00:37
Sigma baby, you've conquered soap! 😲😮💨 LeoNata family #shorts
LeoNata Family
Рет қаралды 37 МЛН