- 【機械学習】ロジスティック回帰(後編)|  多項ロジスティック回帰

【機械学習】ロジスティック回帰(後編)|  多項ロジスティック回帰

←第5回 ロジスティック回帰(前編)
https://youtu.be/mMMzDFttZ8A

→ 第7回 サポートベクトルマシン(前編)
https://youtu.be/cNEhKEb9-JU

ご視聴ありがとうございます。
私は普段、AIエンジニア/データサイエンティストとして活動しています。このチャンネルでは、たくさんの人にAIの可能性を知っていただくこと...
←第5回 ロジスティック回帰(前編)
https://youtu.be/mMMzDFttZ8A

→ 第7回 サポートベクトルマシン(前編)
https://youtu.be/cNEhKEb9-JU

ご視聴ありがとうございます。
私は普段、AIエンジニア/データサイエンティストとして活動しています。このチャンネルでは、たくさんの人にAIの可能性を知っていただくことや、日々の学習の成果を視聴者の皆様とシェアしていくことを目標にしています。

この動画シリーズでは「機械学習をはじめよう」と題して、機械学習の基礎的な理論や実装の方法を解説していきます。

動画の内容を参考にして、ぜひ皆様も機械学習に挑戦してみてください!!

ーこの分野についてもっと詳しく学ぶならー

『パターン認識と機械学習 上』
https://amzn.to/2vSj7Ti

『パターン認識と機械学習 下』
https://amzn.to/2OI8cmm

『統計的学習の基礎 ―データマイニング・推論・予測―』
https://amzn.to/2MEXwHX

『Pythonではじめる機械学習 ―scikit-learnで学ぶ特徴量エンジニアリングと機械学習の基礎』
https://amzn.to/2nKQJ19

『Machine Learning: A Probabilistic Perspective (Adaptive Computation and Machine Learning)』
https://amzn.to/2Mx9nYf

#機械学習 #AI #人工知能 #machine learning #Python #データ分析 #データサイエンス #データサイエンティスト #ロジスティック #ロジスティック回帰 #多項ロジスティック
Able Programming

Able Programming

🎉 15,000 人達成! 🎉

チャンネル登録 RSS
Able Programmingはプログラミングに関する知識を紹介し、プログラミング初学者を支援するチャンネルです。

Timetable

動画タイムテーブル

動画数:17件

すみません、 辺りからの損失関数Eを偏微分するところで、なぜ二乗誤差の頭に1/2がついているのかがわかりません…。お時間のある時に、もしくは誰か優しい方、教えていただければ嬉しく思います。 - 【深層学習】誤差逆伝播法|バックプロパゲーション

すみません、 辺りからの損失関数Eを偏微分するところで、なぜ二乗誤差の頭に1/2がついているのかがわかりません…。お時間のある時に、もしくは誰か優しい方、教えていただければ嬉しく思います。

【深層学習】誤差逆伝播法|バックプロパゲーション
2018年11月29日
00:22:40 - 00:36:01
ここの(a_j)^(L-1)ってa_iではないのですか? - 【深層学習】誤差逆伝播法|バックプロパゲーション

ここの(a_j)^(L-1)ってa_iではないのですか?

【深層学習】誤差逆伝播法|バックプロパゲーション
2018年11月29日
00:24:16 - 00:36:01
1、2のデータの出力のかっこの右上のTって何ですか?? - 【深層学習】損失関数/勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法

1、2のデータの出力のかっこの右上のTって何ですか??

【深層学習】損失関数/勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法
2018年11月11日
00:15:36 - 00:32:09
wが重み、yが各ニューロンにおける値とすると、zが活性化関数でしょうか? - 【深層学習】損失関数/勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法

wが重み、yが各ニューロンにおける値とすると、zが活性化関数でしょうか?

【深層学習】損失関数/勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法
2018年11月11日
00:30:10 - 00:32:09
自分の研究の予測と実測がこんな直線になりません。どうすればよいでしょうか? - 【機械学習】回帰分析の実践|xgboost、交差検証、グリッドサーチ

自分の研究の予測と実測がこんな直線になりません。どうすればよいでしょうか?

【機械学習】回帰分析の実践|xgboost、交差検証、グリッドサーチ
2018年10月30日
00:50:00 - 00:52:10
回帰問題?怪奇問題?なんとも怪奇な単語だ - 【深層学習】活性化関数|ReLU、シグモイド関数、ソフトマックス関数

回帰問題?怪奇問題?なんとも怪奇な単語だ

【深層学習】活性化関数|ReLU、シグモイド関数、ソフトマックス関数
2018年10月25日
00:01:38 - 00:22:30
なぜ直線に分離出来ないのかサッパリ分からない😅スライドを動画にして説明して欲しいです - 【深層学習】深層学習とは?|ディープラーニングの意味、ニューラルネットワーク

なぜ直線に分離出来ないのかサッパリ分からない😅スライドを動画にして説明して欲しいです

【深層学習】深層学習とは?|ディープラーニングの意味、ニューラルネットワーク
2018年10月11日
00:19:30 - 00:27:55
でfor文などを使うときのために、axesを一次元配列にしましたけど、実際にfor文で3つのグラフを書くのはどうすればようでしょうか?単純にfig, axes=plt.subplots(2,2,figsize=(20,12))for i in range(1,4):axes.ravel()[i-1].plot(x_i,y_i)plot.show()だと、x is not definedというエラーが出ました。 - 思いのままにグラフが描ける!!機械学習のためのmatplotlib超入門

でfor文などを使うときのために、axesを一次元配列にしましたけど、実際にfor文で3つのグラフを書くのはどうすればようでしょうか?単純にfig, axes=plt.subplots(2,2,figsize=(20,12))for i in range(1,4):axes.ravel()[i-1].plot(x_i,y_i)plot.show()だと、x is not definedというエラーが出ました。

思いのままにグラフが描ける!!機械学習のためのmatplotlib超入門
2018年09月24日
00:17:15 - 00:51:05
例えば、棒グラフ()は、「TypeError: unsupported operand type(s) for -: 'str' and 'float'」というエラーが、 - 思いのままにグラフが描ける!!機械学習のためのmatplotlib超入門

例えば、棒グラフ()は、「TypeError: unsupported operand type(s) for -: 'str' and 'float'」というエラーが、

思いのままにグラフが描ける!!機械学習のためのmatplotlib超入門
2018年09月24日
00:30:02 - 00:39:19
正規分布曲線()は、「AttributeError: Unknown property density」というエラーが発生します。 - 思いのままにグラフが描ける!!機械学習のためのmatplotlib超入門

正規分布曲線()は、「AttributeError: Unknown property density」というエラーが発生します。

思いのままにグラフが描ける!!機械学習のためのmatplotlib超入門
2018年09月24日
00:39:19 - 00:51:05
の使い方なんですが、xとyが配列要素の数が同じなら、x(y<0.5)と打てばわざわざwhere使わないでもyが0.5以下で同じ配列要素のxの値だせますよ - これだけは押さえよう!!機械学習のためのnumpy超入門

の使い方なんですが、xとyが配列要素の数が同じなら、x(y<0.5)と打てばわざわざwhere使わないでもyが0.5以下で同じ配列要素のxの値だせますよ

これだけは押さえよう!!機械学習のためのnumpy超入門
2018年09月22日
00:18:34 - 00:32:25
あたり?x,y,yのそれぞれでやっている事はわかるのですが、元々関連のない配列のxとy同士をなぜ最後にx[:][y==1]で関連付けることができるのでしょうか?あたかも同じ表に入っているかのように - これだけは押さえよう!!機械学習のためのnumpy超入門

あたり?x,y,yのそれぞれでやっている事はわかるのですが、元々関連のない配列のxとy同士をなぜ最後にx[:][y==1]で関連付けることができるのでしょうか?あたかも同じ表に入っているかのように

これだけは押さえよう!!機械学習のためのnumpy超入門
2018年09月22日
00:19:00 - 00:32:25
すみません、少しそう思いました^^;ただ、とても参考になります!いつも素晴らしい動画ありがとうございます。 - 【機械学習】モデルの改良と前処理 |スケーリング、グリッドサーチ

すみません、少しそう思いました^^;ただ、とても参考になります!いつも素晴らしい動画ありがとうございます。

【機械学習】モデルの改良と前処理 |スケーリング、グリッドサーチ
2018年09月15日
00:30:49 - 00:32:02
質問ですが、頃「間違っていたらゼロ」の部分は「あっていたらゼロ」の理解でよろしでしょうか。 - 【機械学習】アンサンブル学習(後編)| AdaBoost、勾配ブースティング

質問ですが、頃「間違っていたらゼロ」の部分は「あっていたらゼロ」の理解でよろしでしょうか。

【機械学習】アンサンブル学習(後編)| AdaBoost、勾配ブースティング
2018年09月10日
00:09:08 - 00:44:32
実装はここから - 【機械学習】アンサンブル学習(後編)| AdaBoost、勾配ブースティング

実装はここから

【機械学習】アンサンブル学習(後編)| AdaBoost、勾配ブースティング
2018年09月10日
00:23:33 - 00:44:32
ここから実装です。 - 【機械学習】アンサンブル学習(前編)| バギング・スタッキング・バンピング、ランダムフォレスト

ここから実装です。

【機械学習】アンサンブル学習(前編)| バギング・スタッキング・バンピング、ランダムフォレスト
2018年09月07日
00:16:56 - 00:42:41
より実用的なデータを用いて(kaggle) - 【機械学習】アンサンブル学習(前編)| バギング・スタッキング・バンピング、ランダムフォレスト

より実用的なデータを用いて(kaggle)

【機械学習】アンサンブル学習(前編)| バギング・スタッキング・バンピング、ランダムフォレスト
2018年09月07日
00:25:53 - 00:42:41