- 線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM

線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM

この動画では、過学習と概念を紹介し、リッジ回帰とラッソ回帰がどのようなものか説明します。

前回:https://youtu.be/KKuAxQbuJpk
次回:https://youtu.be/CrN5Si0379g

■バイアスとバリアンスについて→https://youtu.be/xAzvBQd0A7U
■動画で使用したコード https://k-dm.work/ja/basic/regression/ridge_and_lasso/
...
この動画では、過学習と概念を紹介し、リッジ回帰とラッソ回帰がどのようなものか説明します。

前回:https://youtu.be/KKuAxQbuJpk
次回:https://youtu.be/CrN5Si0379g

■バイアスとバリアンスについて→https://youtu.be/xAzvBQd0A7U
■動画で使用したコード https://k-dm.work/ja/basic/regression/ridge_and_lasso/
■線形回帰の再生リスト https://youtube.com/playlist?list=PLq7HV4kcWdgPJpdR_OwYreVExCTqMiiCE

※式にミスがあったため動画をアップロードし直しました(21/10/09)
-----------------------------
★目次
00:00 タイトル
00:57 ガウス=マルコフの定理
03:14 バイアスを犠牲にして予測精度を改善したい
04:52 過学習
06:12 Ridge(リッジ)回帰
08:22 Lasso(ラッソ)回帰
08:36 リッジ回帰とラッソ回帰の違い
11:40 まとめ
-----------------------------
★参考文献
- http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.Ridge.html
- Tibshirani, Robert. "Regression shrinkage and selection via the lasso." Journal of the Royal Statistical Society: Series B (Methodological) 58.1 (1996): 267-288. の Fig2 ~ Fig3
- https://ja.wikipedia.org/wiki/%E3%82%AC%E3%82%A6%E3%82%B9%EF%BC%9D%E3%83%9E%E3%83%AB%E3%82%B3%E3%83%95%E3%81%AE%E5%AE%9A%E7%90%86
- Trevor Hastie ・Robert Tibshirani ・Jerome Friedman 著・杉山 将・井手 剛・神嶌 敏弘・栗田 多喜夫・前田 英作監訳・井尻 善久・井手 剛・岩田 具治・金森 敬文・兼村 厚範・烏山 昌幸・河原 吉伸・木村 昭悟・小西 嘉典・酒井 智弥・鈴木 大慈・竹内 一郎・玉木 徹・出口 大輔・冨岡 亮太・波部 斉・前田 新一・持橋 大地・山田 誠訳 ”統計的学習の基礎: データマイニング・推論・予測”. 共立出版, 2014.
-----------------------------
★SNS
twitter:
ブログ: https://kdm.hatenablog.jp/
コード置き場: https://k-dm.work/ja/
-----------------------------
★BGM
Let’s! https://dova-s.jp/bgm/play8503.html
-----------------------------
★このチャンネルについて
週に一回ペースで機械学習・データサイエンスに関する情報を発信します!よろしければチャンネル登録お願いします。大変励みになります。

#機械学習 #データ分析

#機械学習 #AI #データ分析 #データサイエンス #データサイエンティスト #Python #scikit-learn #Kaggle #データマイニング #G検定 #E検定 #人工知能 #わかりやすく #初学者 #python #解説
タイトル - 線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM

タイトル

線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM
2021年10月09日 
00:00:00 - 00:00:57
ガウス=マルコフの定理 - 線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM

ガウス=マルコフの定理

線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM
2021年10月09日 
00:00:57 - 00:03:14
バイアスを犠牲にして予測精度を改善したい - 線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM

バイアスを犠牲にして予測精度を改善したい

線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM
2021年10月09日 
00:03:14 - 00:04:52
過学習 - 線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM

過学習

線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM
2021年10月09日 
00:04:52 - 00:06:12
Ridge(リッジ)回帰 - 線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM

Ridge(リッジ)回帰

線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM
2021年10月09日 
00:06:12 - 00:08:22
Lasso(ラッソ)回帰 - 線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM

Lasso(ラッソ)回帰

線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM
2021年10月09日 
00:08:22 - 00:08:36
リッジ回帰とラッソ回帰の違い - 線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM

リッジ回帰とラッソ回帰の違い

線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM
2021年10月09日 
00:08:36 - 00:11:40
まとめ-----------------------------★参考文献- http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.Ridge.html- Tibshirani, Robert. "Regression shrinkage and selection via the lasso." Journal of the Royal Statistical Society: Series B (Methodological) 58.1 (1996): 267-288. の Fig2 ~ Fig3- https://ja.wikipedia.org/wiki/%E3%82%AC%E3%82%A6%E3%82%B9%EF%BC%9D%E3%83%9E%E3%83%AB%E3%82%B3%E3%83%95%E3%81%AE%E5%AE%9A%E7%90%86- Trevor Hastie ・Robert Tibshirani ・Jerome Friedman 著・杉山 将・井手 剛・神嶌 敏弘・栗田 多喜夫・前田 英作監訳・井尻 善久・井手 剛・岩田 具治・金森 敬文・兼村 厚範・烏山 昌幸・河原 吉伸・木村 昭悟・小西 嘉典・酒井 智弥・鈴木 大慈・竹内 一郎・玉木 徹・出口 大輔・冨岡 亮太・波部 斉・前田 新一・持橋 大地・山田 誠訳 ”統計的学習の基礎: データマイニング・推論・予測”. 共立出版, 2014.-----------------------------★SNStwitter: https://twitter.com/intent/follow?screen_name=_K_DMブログ: https://kdm.hatenablog.jp/コード置き場: https://k-dm.work/ja/-----------------------------★BGMLet’s!  https://dova-s.jp/bgm/play8503.html-----------------------------★このチャンネルについて週に一回ペースで機械学習・データサイエンスに関する情報を発信します!よろしければチャンネル登録お願いします。大変励みになります。 - 線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM

まとめ-----------------------------★参考文献- http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.Ridge.html- Tibshirani, Robert. "Regression shrinkage and selection via the lasso." Journal of the Royal Statistical Society: Series B (Methodological) 58.1 (1996): 267-288. の Fig2 ~ Fig3- https://ja.wikipedia.org/wiki/%E3%82%AC%E3%82%A6%E3%82%B9%EF%BC%9D%E3%83%9E%E3%83%AB%E3%82%B3%E3%83%95%E3%81%AE%E5%AE%9A%E7%90%86- Trevor Hastie ・Robert Tibshirani ・Jerome Friedman 著・杉山 将・井手 剛・神嶌 敏弘・栗田 多喜夫・前田 英作監訳・井尻 善久・井手 剛・岩田 具治・金森 敬文・兼村 厚範・烏山 昌幸・河原 吉伸・木村 昭悟・小西 嘉典・酒井 智弥・鈴木 大慈・竹内 一郎・玉木 徹・出口 大輔・冨岡 亮太・波部 斉・前田 新一・持橋 大地・山田 誠訳 ”統計的学習の基礎: データマイニング・推論・予測”. 共立出版, 2014.-----------------------------★SNStwitter: https://twitter.com/intent/follow?screen_name=_K_DMブログ: https://kdm.hatenablog.jp/コード置き場: https://k-dm.work/ja/-----------------------------★BGMLet’s! https://dova-s.jp/bgm/play8503.html-----------------------------★このチャンネルについて週に一回ペースで機械学習・データサイエンスに関する情報を発信します!よろしければチャンネル登録お願いします。大変励みになります。

線形回帰② 過学習をさせない工夫(正則化)の仕組みを解説します #K_DM
2021年10月09日 
00:11:40 - 00:13:13

K_DM【機械学習 x Python】

※本サイトに掲載されているチャンネル情報や動画情報はYouTube公式のAPIを使って取得・表示しています。

Timetable

動画タイムテーブル