- ポケモン対戦は予測できる!?人工知能が見つけた勝ちの法則

ポケモン対戦は予測できる!?人工知能が見つけた勝ちの法則

ご視聴ありがとうございます。
私は普段、AIエンジニア/データサイエンティストとして活動しています。このチャンネルでは、たくさんの人にAIの可能性を知っていただくことや、日々の学習の成果を視聴者の皆様とシェアしていくことを目標にしています。

今回は、ポケモン対戦のデータを収集し分析して見ました。
人工知...
ご視聴ありがとうございます。
私は普段、AIエンジニア/データサイエンティストとして活動しています。このチャンネルでは、たくさんの人にAIの可能性を知っていただくことや、日々の学習の成果を視聴者の皆様とシェアしていくことを目標にしています。

今回は、ポケモン対戦のデータを収集し分析して見ました。
人工知能が見つけ出した勝ちの法則とはいかに!?

#機械学習 #AI #人工知能 #machine learning #Python #データ分析 #データサイエンス #ポケモン #ポケモン対戦

Able Programming

※本サイトに掲載されているチャンネル情報や動画情報はYouTube公式のAPIを使って取得・表示しています。

Timetable

動画タイムテーブル

動画数:37件

すみません、 辺りからの損失関数Eを偏微分するところで、なぜ二乗誤差の頭に1/2がついているのかがわかりません…。お時間のある時に、もしくは誰か優しい方、教えていただければ嬉しく思います。 - 【深層学習】誤差逆伝播法|バックプロパゲーション

すみません、 辺りからの損失関数Eを偏微分するところで、なぜ二乗誤差の頭に1/2がついているのかがわかりません…。お時間のある時に、もしくは誰か優しい方、教えていただければ嬉しく思います。

【深層学習】誤差逆伝播法|バックプロパゲーション
2018年11月29日 
00:22:40 - 00:36:01
ここの(a_j)^(L-1)ってa_iではないのですか? - 【深層学習】誤差逆伝播法|バックプロパゲーション

ここの(a_j)^(L-1)ってa_iではないのですか?

【深層学習】誤差逆伝播法|バックプロパゲーション
2018年11月29日 
00:24:16 - 00:36:01
1、2のデータの出力のかっこの右上のTって何ですか?? - 【深層学習】損失関数/勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法

1、2のデータの出力のかっこの右上のTって何ですか??

【深層学習】損失関数/勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法
2018年11月11日 
00:15:36 - 00:32:09
wが重み、yが各ニューロンにおける値とすると、zが活性化関数でしょうか? - 【深層学習】損失関数/勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法

wが重み、yが各ニューロンにおける値とすると、zが活性化関数でしょうか?

【深層学習】損失関数/勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法
2018年11月11日 
00:30:10 - 00:32:09
自分の研究の予測と実測がこんな直線になりません。どうすればよいでしょうか? - 【機械学習】回帰分析の実践|xgboost、交差検証、グリッドサーチ

自分の研究の予測と実測がこんな直線になりません。どうすればよいでしょうか?

【機械学習】回帰分析の実践|xgboost、交差検証、グリッドサーチ
2018年10月30日 
00:50:00 - 00:52:10
回帰問題?怪奇問題?なんとも怪奇な単語だ - 【深層学習】活性化関数|ReLU、シグモイド関数、ソフトマックス関数

回帰問題?怪奇問題?なんとも怪奇な単語だ

【深層学習】活性化関数|ReLU、シグモイド関数、ソフトマックス関数
2018年10月25日 
00:01:38 - 00:22:30
なぜ直線に分離出来ないのかサッパリ分からない😅スライドを動画にして説明して欲しいです - 【深層学習】深層学習とは?|ディープラーニングの意味、ニューラルネットワーク

なぜ直線に分離出来ないのかサッパリ分からない😅スライドを動画にして説明して欲しいです

【深層学習】深層学習とは?|ディープラーニングの意味、ニューラルネットワーク
2018年10月11日 
00:19:30 - 00:27:55