- 【機械学習】ロジスティック回帰(後編)|  多項ロジスティック回帰

【機械学習】ロジスティック回帰(後編)|  多項ロジスティック回帰

←第5回 ロジスティック回帰(前編)
https://youtu.be/mMMzDFttZ8A

→ 第7回 サポートベクトルマシン(前編)
https://youtu.be/cNEhKEb9-JU

ご視聴ありがとうございます。
私は普段、AIエンジニア/データサイエンティストとして活動しています。このチャンネルでは、たくさんの人にAIの可能性を知っていただくこと...
←第5回 ロジスティック回帰(前編)
https://youtu.be/mMMzDFttZ8A

→ 第7回 サポートベクトルマシン(前編)
https://youtu.be/cNEhKEb9-JU

ご視聴ありがとうございます。
私は普段、AIエンジニア/データサイエンティストとして活動しています。このチャンネルでは、たくさんの人にAIの可能性を知っていただくことや、日々の学習の成果を視聴者の皆様とシェアしていくことを目標にしています。

この動画シリーズでは「機械学習をはじめよう」と題して、機械学習の基礎的な理論や実装の方法を解説していきます。

動画の内容を参考にして、ぜひ皆様も機械学習に挑戦してみてください!!

ーこの分野についてもっと詳しく学ぶならー

『パターン認識と機械学習 上』
https://amzn.to/2vSj7Ti

『パターン認識と機械学習 下』
https://amzn.to/2OI8cmm

『統計的学習の基礎 ―データマイニング・推論・予測―』
https://amzn.to/2MEXwHX

『Pythonではじめる機械学習 ―scikit-learnで学ぶ特徴量エンジニアリングと機械学習の基礎』
https://amzn.to/2nKQJ19

『Machine Learning: A Probabilistic Perspective (Adaptive Computation and Machine Learning)』
https://amzn.to/2Mx9nYf

#機械学習 #AI #人工知能 #machine learning #Python #データ分析 #データサイエンス #データサイエンティスト #ロジスティック #ロジスティック回帰 #多項ロジスティック

Able Programming

※本サイトに掲載されているチャンネル情報や動画情報はYouTube公式のAPIを使って取得・表示しています。

Timetable

動画タイムテーブル

動画数:37件

すみません、 辺りからの損失関数Eを偏微分するところで、なぜ二乗誤差の頭に1/2がついているのかがわかりません…。お時間のある時に、もしくは誰か優しい方、教えていただければ嬉しく思います。 - 【深層学習】誤差逆伝播法|バックプロパゲーション

すみません、 辺りからの損失関数Eを偏微分するところで、なぜ二乗誤差の頭に1/2がついているのかがわかりません…。お時間のある時に、もしくは誰か優しい方、教えていただければ嬉しく思います。

【深層学習】誤差逆伝播法|バックプロパゲーション
2018年11月29日 
00:22:40 - 00:36:01
ここの(a_j)^(L-1)ってa_iではないのですか? - 【深層学習】誤差逆伝播法|バックプロパゲーション

ここの(a_j)^(L-1)ってa_iではないのですか?

【深層学習】誤差逆伝播法|バックプロパゲーション
2018年11月29日 
00:24:16 - 00:36:01
1、2のデータの出力のかっこの右上のTって何ですか?? - 【深層学習】損失関数/勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法

1、2のデータの出力のかっこの右上のTって何ですか??

【深層学習】損失関数/勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法
2018年11月11日 
00:15:36 - 00:32:09
wが重み、yが各ニューロンにおける値とすると、zが活性化関数でしょうか? - 【深層学習】損失関数/勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法

wが重み、yが各ニューロンにおける値とすると、zが活性化関数でしょうか?

【深層学習】損失関数/勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法
2018年11月11日 
00:30:10 - 00:32:09
自分の研究の予測と実測がこんな直線になりません。どうすればよいでしょうか? - 【機械学習】回帰分析の実践|xgboost、交差検証、グリッドサーチ

自分の研究の予測と実測がこんな直線になりません。どうすればよいでしょうか?

【機械学習】回帰分析の実践|xgboost、交差検証、グリッドサーチ
2018年10月30日 
00:50:00 - 00:52:10
回帰問題?怪奇問題?なんとも怪奇な単語だ - 【深層学習】活性化関数|ReLU、シグモイド関数、ソフトマックス関数

回帰問題?怪奇問題?なんとも怪奇な単語だ

【深層学習】活性化関数|ReLU、シグモイド関数、ソフトマックス関数
2018年10月25日 
00:01:38 - 00:22:30
なぜ直線に分離出来ないのかサッパリ分からない😅スライドを動画にして説明して欲しいです - 【深層学習】深層学習とは?|ディープラーニングの意味、ニューラルネットワーク

なぜ直線に分離出来ないのかサッパリ分からない😅スライドを動画にして説明して欲しいです

【深層学習】深層学習とは?|ディープラーニングの意味、ニューラルネットワーク
2018年10月11日 
00:19:30 - 00:27:55