- Deep Learning精度向上テクニック:様々なCNN #2

Deep Learning精度向上テクニック:様々なCNN #2

この動画では、Deep Learningで用いられる様々なConolutionのアーキテクチャを紹介します。
#2では、Inception、DenseNet、Bottleneck構造、ShuffleNetについて解説しています。

前回の動画(様々なCNN #1)はこちら
https://www.youtube.com/watch?v=UximUEjPQco

次の動画(Data Augmentation)はこちら
https://w...
この動画では、Deep Learningで用いられる様々なConolutionのアーキテクチャを紹介します。
#2では、Inception、DenseNet、Bottleneck構造、ShuffleNetについて解説しています。

前回の動画(様々なCNN #1)はこちら
https://www.youtube.com/watch?v=UximUEjPQco

次の動画(Data Augmentation)はこちら
https://www.youtube.com/watch?v=fWxKm9ar620

ニューラルネットワーク設計の基礎
https://www.youtube.com/watch?v=O3qm6qZooP0

層数、ニューロン数を決める指針
https://www.youtube.com/watch?v=OwccN7rj4Qg

GoogLeNetサンプルプロジェクト
# Neural Network Console クラウド版へのログインが必要
https://dl.sony.com/console/#/project?project_id=50

DenseNetサンプルプロジェクト
# Neural Network Console クラウド版へのログインが必要
https://dl.sony.com/console/#/project?project_id=40

SqueezeNetサンプルプロジェクト
# Neural Network Console クラウド版へのログインが必要
https://dl.sony.com/console/#/project?project_id=45

ShuffleNetサンプルプロジェクト
# Neural Network Console クラウド版へのログインが必要
https://dl.sony.com/console/#/project?project_id=42

再生リスト「Deep Learning 精度向上テクニック」
https://www.youtube.com/playlist?list=PLg1wtJlhfh216rnmSv_oEDuchRjgUqxBi

再生リスト「Deep Learning入門」
https://www.youtube.com/playlist?list=PLg1wtJlhfh23pjdFv4p8kOBYyTRvzseZ3

Neural Network Console
https://dl.sony.com/ja/

Neural Network Libraries
https://nnabla.org/ja/

#Deep Learning #Neural Network #Neural Network Console #Neural Network Libraries #Sony #AI #深層学習 #ディープラーニング #ニュールネットワーク #ソニー #人工知能 #Convolution #Inception #GoogLeNet #Dense #Squeeze #Shuffle #Net #DenseNet #SqueezeNet #ShuffleNet #CNN #Convolutional Neural Networks #畳み込みニューラルネットワーク
Neural Network Console

Neural Network Console

🎉 28,000 人達成! 🎉

【予測】3万人まであと98日(2023年1月10日)

チャンネル登録 RSS
ソニーのDeep Learningの統合開発環境、Neural Network Consoleのチャンネルです。
Deep Learningの基礎について、およびNeural Network Consoleの使い方について解説しています。

Channel for Neural Network Console, Sony's integrated development environment for Deep Learning.
Learn the basics of Deep Learni...
ソニーのDeep Learningの統合開発環境、Neural Network Consoleのチャンネルです。
Deep Learningの基礎について、およびNeural Network Consoleの使い方について解説しています。

Channel for Neural Network Console, Sony's integrated development environment for Deep Learning.
Learn the basics of Deep Learning and how to use the Neural Network Console.

Timetable

動画タイムテーブル

動画数:9件

における畳み込み層3層目のカーネルサイズ3x53は,3x3のtypoではないでしょうか. - Deep Learning精度向上テクニック:様々なCNN #4

における畳み込み層3層目のカーネルサイズ3x53は,3x3のtypoではないでしょうか.

Deep Learning精度向上テクニック:様々なCNN #4
2020年02月27日
00:10:10 - 00:12:47
画像のattentionの解説について質問があります。 - Deep Learning入門:Attention(注意)

画像のattentionの解説について質問があります。

Deep Learning入門:Attention(注意)
2020年01月23日
00:02:10 - 00:15:39
猫の鳴き声みたいな音が入ってるw - Deep Learning入門:Attention(注意)

猫の鳴き声みたいな音が入ってるw

Deep Learning入門:Attention(注意)
2020年01月23日
00:07:27 - 00:15:39
って縦方向を例にすると (1/8)*(2.7) / (1/32) = 10.8
 で0.8だと思うんだけど なんで0.85なのかわからん・・・認識違う?? それとも動画が間違い?? 誰か~ - 実践Deep Learning:物体検出

って縦方向を例にすると (1/8)*(2.7) / (1/32) = 10.8 で0.8だと思うんだけど なんで0.85なのかわからん・・・認識違う?? それとも動画が間違い?? 誰か~

実践Deep Learning:物体検出
2019年11月18日
00:07:40 - 00:15:56
にでてくるskip connectionのネットワークの作ろうとすると注意マークがでてきます。なぜですか。 - 実践Deep Learning:セマンティックセグメンテーション

にでてくるskip connectionのネットワークの作ろうとすると注意マークがでてきます。なぜですか。

実践Deep Learning:セマンティックセグメンテーション
2019年07月23日
00:09:10 - 00:14:52
-6:30・elman-netでは、古い記憶は多層のNNを経由するため、記憶も学習も困難→中間層出力を単純に加算するcell stateに変更 - Deep Learning入門:数式なしで理解するLSTM (Long short-term memory)

-6:30・elman-netでは、古い記憶は多層のNNを経由するため、記憶も学習も困難→中間層出力を単純に加算するcell stateに変更

Deep Learning入門:数式なしで理解するLSTM (Long short-term memory)
2019年07月18日
00:04:45 - 00:06:40
-・input gateを追加。長期記憶を強化。cell stateも加算し続けられるので、まだ長期記憶が不十分のため。 - Deep Learning入門:数式なしで理解するLSTM (Long short-term memory)

-・input gateを追加。長期記憶を強化。cell stateも加算し続けられるので、まだ長期記憶が不十分のため。

Deep Learning入門:数式なしで理解するLSTM (Long short-term memory)
2019年07月18日
00:06:40 - 00:08:10
-・output gateも追加。次の時刻の学習に役立つもののみ通す機能。・LSTM自体の出力、elman-net由来の記憶にも影響 - Deep Learning入門:数式なしで理解するLSTM (Long short-term memory)

-・output gateも追加。次の時刻の学習に役立つもののみ通す機能。・LSTM自体の出力、elman-net由来の記憶にも影響

Deep Learning入門:数式なしで理解するLSTM (Long short-term memory)
2019年07月18日
00:08:10 - 00:09:05
-・forget gateを追加。過去の記憶が不要になった場合に対応。 - Deep Learning入門:数式なしで理解するLSTM (Long short-term memory)

-・forget gateを追加。過去の記憶が不要になった場合に対応。

Deep Learning入門:数式なしで理解するLSTM (Long short-term memory)
2019年07月18日
00:09:05 - 00:11:34
圧縮ニューロン数、復元ニューロン数はどのように決定するのですか? - 実践Deep Learning:Autoencoderを用いた教師なし異常検知

圧縮ニューロン数、復元ニューロン数はどのように決定するのですか?

実践Deep Learning:Autoencoderを用いた教師なし異常検知
2019年06月03日
00:03:00 - 00:11:59
ReLU - Deep Learning精度向上テクニック:様々な活性化関数

ReLU

Deep Learning精度向上テクニック:様々な活性化関数
2019年05月10日
00:03:30 - 00:09:26
relu, batch normalization, residual networks - Deep Learning入門:ニューラルネットワークの多層化テクニック

relu, batch normalization, residual networks

Deep Learning入門:ニューラルネットワークの多層化テクニック
2019年04月15日
00:02:07 - 00:06:21
hamsu 6:21 CNN 15:50 ロス - Deep Learning入門:ニューラルネットワーク設計の基礎

hamsu 6:21 CNN 15:50 ロス

Deep Learning入門:ニューラルネットワーク設計の基礎
2019年02月26日
00:02:31 - 00:18:38
時間経過時刻にある図のkernel5x5は4x4の誤りではないでしょうか - Deep Learning入門:ニューラルネットワーク設計の基礎

時間経過時刻にある図のkernel5x5は4x4の誤りではないでしょうか

Deep Learning入門:ニューラルネットワーク設計の基礎
2019年02月26日
00:10:40 - 00:18:38
のconvolutionのparametersが150となる理由がよくわかりません25個のparameterをスライドさせているだけなので合計25個ではないのでしょうか? - Deep Learning入門:ニューラルネットワーク設計の基礎

のconvolutionのparametersが150となる理由がよくわかりません25個のparameterをスライドさせているだけなので合計25個ではないのでしょうか?

Deep Learning入門:ニューラルネットワーク設計の基礎
2019年02月26日
00:12:14 - 00:18:38