イントロおもしろ話(00:10:30 - 00:11:57) - 【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning

イントロおもしろ話(00:10:30 - 00:11:57)
【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning

▼テーマ
CNN の元祖!(?) Yan le Cun (ヤンルカン)氏らによって1980年代から開発された、文字認識用の CNN です。
いろんな CNN の architecture を紹介していくから、このシリーズも是非見てね!

▼関連プレイリスト
Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnV...
▼テーマ
CNN の元祖!(?) Yan le Cun (ヤンルカン)氏らによって1980年代から開発された、文字認識用の CNN です。
いろんな CNN の architecture を紹介していくから、このシリーズも是非見てね!

▼関連プレイリスト
Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP

CNN紹介動画 https://www.youtube.com/playlist?list=PLhDAH9aTfnxIGIvLciL1CtE59VGrEx4ER

▼参考文献
LeCun, Yann. "Generalization and network design strategies." Connectionism in perspective 19 (1989): 143-155.
http://yann.lecun.com/exdb/publis/pdf/lecun-89.pdf
LeNet の原論文です。

LeCun, Yann, et al. "Gradient-based learning applied to document recognition." Proceedings of the IEEE 86.11 (1998): 2278-2324.
http://vision.stanford.edu/cs598_spring07/papers/Lecun98.pdf
LeNet-5 の原論文です。

Rumelhart, D. E., et al. “Learning Internal Representations by Error Propagation.” Neurocomputing: Foundations of Research, 1988, pp. 673–695.
http://www.cs.toronto.edu/~hinton/absps/pdp8.pdf
動画でちらっと紹介した、「誤差逆伝播」に関する論文です。
誤差逆伝播に関しては、これ以前にも何度も独立に発見されていますが、 DL の文脈だとこれを引用することが多いのではないかと思います。
(違ったら教えて下さい)

Amazon.co.jp: Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems: Géron, Aurélien
https://amzn.to/2SmjFeY
tensorflow つかって ML と DL をやる本。分厚い洋書ですが、入門に必要なことは全て書いてあります。
体力ある人は、つべこべ言わず、この本を読み切ればいいと思います。

▼目次
00:00 OP
===== 1.LeNet =====
00:47 論文紹介と時代背景
04:10 どんなタスクを解いたのか?
05:26 どんなモデルだったのか?
08:28 どれくらいの精度が出たのか?
===== 2.LeNet-5 =====
09:25 論文紹介と解いたタスク
10:30 イントロおもしろ話
11:57 どんなモデルだったのか?
14:34 LeNet-5の特徴
16:56 ED

▼終わりに
ご視聴ありがとうございました!
面白かったら高評価、チャンネル登録お願いします。
動画の質問、感想などは、コメント欄やTwitterにどうぞ!
お仕事、コラボのご依頼は、TwitterのDMからお願い致します。
動画生成:AIcia Solid (Twitter: )
動画編集:AIris Solid (妹) (Twitter: )

=======
Logo: TEICAさん ( )
Model: http://3d.nicovideo.jp/works/td44519
Model by: W01fa さん ( )
OP===== 1.LeNet ===== - 【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning

OP===== 1.LeNet =====

【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning
2020年10月02日 
00:00:00 - 00:00:47
論文紹介と時代背景 - 【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning

論文紹介と時代背景

【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning
2020年10月02日 
00:00:47 - 00:04:10
どんなタスクを解いたのか? - 【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning

どんなタスクを解いたのか?

【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning
2020年10月02日 
00:04:10 - 00:05:26
で、8×8×2から4×4×4に5×5Convする際のロジックを教えていただきたいです。フィルターをチャネル数(4枚)用意して、8×8×2の2枚の画像に適応させてるのでしょうか?また、その場合は2枚の画像に適応させた後どのように結合させているのでしょうか? - 【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning

で、8×8×2から4×4×4に5×5Convする際のロジックを教えていただきたいです。フィルターをチャネル数(4枚)用意して、8×8×2の2枚の画像に適応させてるのでしょうか?また、その場合は2枚の画像に適応させた後どのように結合させているのでしょうか?

【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning
2020年10月02日 
00:07:27 - 00:17:53
どれくらいの精度が出たのか?===== 2.LeNet-5 ===== - 【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning

どれくらいの精度が出たのか?===== 2.LeNet-5 =====

【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning
2020年10月02日 
00:08:28 - 00:09:25
論文紹介と解いたタスク - 【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning

論文紹介と解いたタスク

【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning
2020年10月02日 
00:09:25 - 00:10:30
イントロおもしろ話 - 【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning

イントロおもしろ話

【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning
2020年10月02日 
00:10:30 - 00:11:57
どんなモデルだったのか? - 【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning

どんなモデルだったのか?

【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning
2020年10月02日 
00:11:57 - 00:14:34
いつも楽しく動画を見させていただいています.質問なのですが,フィルターをかけた後のチャネル数はCNNのアーキテクチャを作成する段階で任意に決めるものですか?例えばの図には32×32→28×28×6と6つのチャネルが作成されています.これは最初からこの段階で6つのフィルターを用意しているから6つになるのでしょうか? 要はフィルタ数は経験と勘や過去の実験を参考に決めているのですか?という質問でした.お時間がある時に返信いただけると幸いです.長文失礼しました. - 【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning

いつも楽しく動画を見させていただいています.質問なのですが,フィルターをかけた後のチャネル数はCNNのアーキテクチャを作成する段階で任意に決めるものですか?例えばの図には32×32→28×28×6と6つのチャネルが作成されています.これは最初からこの段階で6つのフィルターを用意しているから6つになるのでしょうか? 要はフィルタ数は経験と勘や過去の実験を参考に決めているのですか?という質問でした.お時間がある時に返信いただけると幸いです.長文失礼しました.

【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning
2020年10月02日 
00:12:40 - 00:17:53
LeNet-5の特徴 - 【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning

LeNet-5の特徴

【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning
2020年10月02日 
00:14:34 - 00:16:56
ED - 【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning

ED

【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning
2020年10月02日 
00:16:56 - 00:17:53

AIcia Solid Project

📋 #AIciart

※本サイトに掲載されているチャンネル情報や動画情報はYouTube公式のAPIを使って取得・表示しています。

Timetable

動画タイムテーブル

動画数:291件

オープニング - 【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning

オープニング

【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning
2024年02月25日 
00:00:00 - 00:00:42
価値反復法とは - 【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning

価値反復法とは

【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning
2024年02月25日 
00:00:42 - 00:03:25
今の状況のおさらい - 【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning

今の状況のおさらい

【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning
2024年02月25日 
00:03:25 - 00:04:47
復習 - 【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning

復習

【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning
2024年02月25日 
00:04:47 - 00:07:31
ベルマン最適作用素 - 【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning

ベルマン最適作用素

【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning
2024年02月25日 
00:07:31 - 00:12:48
最適方策を計算 - 【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning

最適方策を計算

【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning
2024年02月25日 
00:12:48 - 00:15:18
まとめ - 【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning

まとめ

【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning
2024年02月25日 
00:15:18 - 00:17:37
エンディング - 【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning

エンディング

【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning
2024年02月25日 
00:17:37 - 00:18:58