これはまだ一次方程式ですが、(00:29:02 - 00:29:04) - How Deep Neural Networks Work - Full Course for Beginners

これはまだ一次方程式ですが、(00:29:02 - 00:29:04)
How Deep Neural Networks Work - Full Course for Beginners

Even if you are completely new to neural networks, this course will get you comfortable with the concepts and math behind them.

Neural networks are at the core of what we are calling Artificial Intelligence today. They can seem impenetrable, even mystical, if you are trying to understand them fo...
Even if you are completely new to neural networks, this course will get you comfortable with the concepts and math behind them.

Neural networks are at the core of what we are calling Artificial Intelligence today. They can seem impenetrable, even mystical, if you are trying to understand them for the first time, but they don't have to.

⭐️ Contents ⭐️
⌨️ (0:00:00) How neural networks work
⌨️ (0:24:13) What neural networks can learn and how they learn it
⌨️ (0:51:37) How convolutional neural networks (CNNs) work
⌨️ (1:16:55) How recurrent neural networks (RNNs) and long-short-term memory (LSTM) work
⌨️ (1:42:49) Deep learning demystified
⌨️ (2:03:33) Getting closer to human intelligence through robotics
⌨️ (2:49:18) How CNNs work, in depth

🎥 Lectures by Brandon Rohrer. Check out his YouTube channel: https://www.youtube.com/user/BrandonRohrer

🔗 Find more courses from Brandon at https://end-to-end-machine-learning.teachable.com/

--

Learn to code for free and get a developer job: https://www.freecodecamp.org

Read hundreds of articles on programming: https://medium.freecodecamp.org

And subscribe for new videos on technology: https://youtube.com/subscription_center?add_user=freecodecamp

#machine learning #deep learning #neural networks #artificial intelligence #logistic regression #probability #math #computer science #statistics #deep learning course #deep learning tutorial #neural networks for beginners #deep neural network #convolutional neural networks #recurrent neural networks #long-short-term memory #ai
⌨️ () How neural networks work - How Deep Neural Networks Work - Full Course for Beginners

⌨️ () How neural networks work

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
00:00:00 - 00:24:13
if you tried making a rule you wouldn't be able to do it. Why? Isn't the rule pretty clear?If only the 2 top or 2 bot are black, it's horizontal.If only the 2 left or 2 right are black, it's vertical.Every other composition where 2 are black is diagonal.If 3 are black, it's L.This just seems programmable.What am I missing? - How Deep Neural Networks Work - Full Course for Beginners

if you tried making a rule you wouldn't be able to do it. Why? Isn't the rule pretty clear?If only the 2 top or 2 bot are black, it's horizontal.If only the 2 left or 2 right are black, it's vertical.Every other composition where 2 are black is diagonal.If 3 are black, it's L.This just seems programmable.What am I missing?

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
00:00:40 - 03:50:57
How come the narrater's cough makes the result go from negative 0.075 to positive 0.075? - How Deep Neural Networks Work - Full Course for Beginners

How come the narrater's cough makes the result go from negative 0.075 to positive 0.075?

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
00:03:33 - 03:50:57
. The bottom right neuron is supposed to be inverted. 2 black on top and 2 white on the bottom. The negative weights should actually be positive weights. - How Deep Neural Networks Work - Full Course for Beginners

. The bottom right neuron is supposed to be inverted. 2 black on top and 2 white on the bottom. The negative weights should actually be positive weights.

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
00:07:40 - 03:50:57
Can anyone explain please - why in @, the last(3rd) layer and the last neuron(4th) is horizontal in the bottom, shouldn’t it be horizontal on the top because of black synapses? Thank you! - How Deep Neural Networks Work - Full Course for Beginners

Can anyone explain please - why in @, the last(3rd) layer and the last neuron(4th) is horizontal in the bottom, shouldn’t it be horizontal on the top because of black synapses? Thank you!

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
00:07:40 - 03:50:57
Made it till  already, good night. - How Deep Neural Networks Work - Full Course for Beginners

Made it till already, good night.

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
00:14:00 - 03:50:57
mark - How Deep Neural Networks Work - Full Course for Beginners

mark

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
00:24:09 - 03:50:57
⌨️ () What neural networks can learn and how they learn it - How Deep Neural Networks Work - Full Course for Beginners

⌨️ () What neural networks can learn and how they learn it

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
00:24:13 - 00:51:37
Brandon;   great video!   where can we find more visual representations of adding curves?  @ you begin to combine curves.  how and where does one learn more? - How Deep Neural Networks Work - Full Course for Beginners

Brandon; great video! where can we find more visual representations of adding curves? @ you begin to combine curves. how and where does one learn more?

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
00:40:00 - 03:50:57
the graphs from  foward makes no sense to me, how can you have 2 values and not make a straight line?you have y output and x input and you get waves? that graphic makes no sense on what you are talking about... unless if you have a diferent value called repetition or time, but still the first ones without the multiple nodes will also make waves since you are adjusting the values right? I dont understand it... - How Deep Neural Networks Work - Full Course for Beginners

the graphs from foward makes no sense to me, how can you have 2 values and not make a straight line?you have y output and x input and you get waves? that graphic makes no sense on what you are talking about... unless if you have a diferent value called repetition or time, but still the first ones without the multiple nodes will also make waves since you are adjusting the values right? I dont understand it...

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
00:40:00 - 03:50:57
does anybody know where I can find the result mentioned at  ? - How Deep Neural Networks Work - Full Course for Beginners

does anybody know where I can find the result mentioned at ?

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
00:40:10 - 03:50:57
imagine it in n-dimensionIt can do amazing stuff in a matter of second.Can you explain neural net in time series pleaseThese lessons touch my heart and for the first time i can imagine abit what is going on in that black box - How Deep Neural Networks Work - Full Course for Beginners

imagine it in n-dimensionIt can do amazing stuff in a matter of second.Can you explain neural net in time series pleaseThese lessons touch my heart and for the first time i can imagine abit what is going on in that black box

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
00:41:48 - 03:50:57
in  b  those have a corelation too - How Deep Neural Networks Work - Full Course for Beginners

in b those have a corelation too

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
00:46:28 - 03:50:57
⌨️ () How convolutional neural networks (CNNs) work - How Deep Neural Networks Work - Full Course for Beginners

⌨️ () How convolutional neural networks (CNNs) work

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
00:51:37 - 01:16:55
May be my english not good and i did not understand correctly. So can anyone help me explain why at  error of O is not -0.51, i mean 0 - 0.51 = -0,51. Thank advance - How Deep Neural Networks Work - Full Course for Beginners

May be my english not good and i did not understand correctly. So can anyone help me explain why at error of O is not -0.51, i mean 0 - 0.51 = -0,51. Thank advance

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
01:09:51 - 03:50:57
May be my english not good and i did not understand correctly. So can anyone help me explain why at  error of O is not -0.51, i mean 0 - 0.51 = 0,51. Thank advance - How Deep Neural Networks Work - Full Course for Beginners

May be my english not good and i did not understand correctly. So can anyone help me explain why at error of O is not -0.51, i mean 0 - 0.51 = 0,51. Thank advance

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
01:09:51 - 03:50:57
⌨️ () How recurrent neural networks (RNNs) and long-short-term memory (LSTM) work - How Deep Neural Networks Work - Full Course for Beginners

⌨️ () How recurrent neural networks (RNNs) and long-short-term memory (LSTM) work

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
01:16:55 - 01:42:49
Since this course is about learning algorithms this is important to classification. Vector:nounMathematics.1: a quantity possessing both magnitude and direction, represented by an arrow the direction of which indicates the direction of the quantity and the length of which is proportional to the magnitude.2: such a quantity with the additional requirement that such quantities obey the parallelogram law of addition.3: such a quantity with the additional requirement that such quantities are to transform in a particular way under changes of the coordinate system.Biology.1: an insect or other organism that transmits a pathogenic fungus, virus, bacterium, etc.2: any agent that acts as a carrier or transporter, as a virus or plasmid that conveys a genetically engineered DNA segment into a host cell.Computers.1: an array of data ordered such that individual items can be located with a single index or subscript.verb (used with object)Aeronautics.1: to guide (an aircraft) in flight by issuing appropriate headings.Aerospace.1: to change the direction of (the thrust of a jet or rocket engine) in order to steer the craft....I am tempted to say Physics would include a unitPhysics1: a quantity possessing magnitude, direction and unit. - How Deep Neural Networks Work - Full Course for Beginners

Since this course is about learning algorithms this is important to classification. Vector:nounMathematics.1: a quantity possessing both magnitude and direction, represented by an arrow the direction of which indicates the direction of the quantity and the length of which is proportional to the magnitude.2: such a quantity with the additional requirement that such quantities obey the parallelogram law of addition.3: such a quantity with the additional requirement that such quantities are to transform in a particular way under changes of the coordinate system.Biology.1: an insect or other organism that transmits a pathogenic fungus, virus, bacterium, etc.2: any agent that acts as a carrier or transporter, as a virus or plasmid that conveys a genetically engineered DNA segment into a host cell.Computers.1: an array of data ordered such that individual items can be located with a single index or subscript.verb (used with object)Aeronautics.1: to guide (an aircraft) in flight by issuing appropriate headings.Aerospace.1: to change the direction of (the thrust of a jet or rocket engine) in order to steer the craft....I am tempted to say Physics would include a unitPhysics1: a quantity possessing magnitude, direction and unit.

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
01:20:40 - 03:50:57
you were literally just telling the AI off for that. Why is Doug not allowed to see Doug but Brandon saw Brandon? - How Deep Neural Networks Work - Full Course for Beginners

you were literally just telling the AI off for that. Why is Doug not allowed to see Doug but Brandon saw Brandon?

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
01:27:43 - 03:50:57
⌨️ () Deep learning demystified - How Deep Neural Networks Work - Full Course for Beginners

⌨️ () Deep learning demystified

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
01:42:49 - 02:03:33
⌨️ () Getting closer to human intelligence through robotics - How Deep Neural Networks Work - Full Course for Beginners

⌨️ () Getting closer to human intelligence through robotics

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
02:03:33 - 02:49:18
A huge grain of salt is a salt crystal? - How Deep Neural Networks Work - Full Course for Beginners

A huge grain of salt is a salt crystal?

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
02:04:12 - 03:50:57
I woke up at - How Deep Neural Networks Work - Full Course for Beginners

I woke up at

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
02:30:00 - 03:50:57
⌨️ () How CNNs work, in depth - How Deep Neural Networks Work - Full Course for Beginners

⌨️ () How CNNs work, in depth

How Deep Neural Networks Work - Full Course for Beginners
2019年04月17日 
02:49:18 - 03:50:57
00:00:02 - 00:00:03: ニューラルネットワークは学習に適しています 00:00:03 - 00:00:07: たくさんの種類のパターン 00:00:07 - 00:00:08: これがどのようになるかの例を挙げる 00:00:08 - 00:00:10: 私はあなたが4ピクセルを持っていたと思います 00:00:11 - 00:00:13: 4 メガピクセルではなく 4 メガピクセル 00:00:13 - 00:00:17: ピクセルで、白黒のみでした 00:00:17 - 00:00:18: そして、あなたは周りに行きたいと思っていました 00:00:18 - 00:00:20: 物の写真と 00:00:20 - 00:00:23: かどうかを自動的に決定します。 00:00:23 - 00:00:27: これらの写真は真っ白でした 00:00:27 - 00:00:29: または真っ暗なイメージ 00:00:30 - 00:00:32: または対角線 00:00:32 - 00:00:35: または水平線 00:00:35 - 00:00:37: あなたはこれを行うことができないので、これはトリッキーです 00:00:37 - 00:00:40: 明るさに関する簡単なルールで 01:16:18 - 01:16:20: ピクセルの 00:00:41 - 00:00:44: どちらも水平線ですが、 00:00:44 - 00:00:46: ルールを作ろうとした場合 00:00:46 - 00:00:49: ピクセルは明るく、どちらが暗かったですか 00:00:49 - 00:00:53: できないだろう 00:00:53 - 00:00:55: ニューラルネットワークでこれを行うには 00:00:55 - 00:00:57: すべての入力を取得することから始めます 00:00:57 - 00:00:59: この場合は 4 ピクセルで、 00:00:59 - 00:01:02: それらを入力ニューロンに分割します 00:01:02 - 00:01:04: これらのそれぞれに番号を割り当てます 00:01:04 - 00:01:07: 明るさや暗さによって 00:01:08 - 00:01:11: プラス 1 はずっと白 マイナス 1 00:01:11 - 00:01:13: ずっと黒で、次に灰色です 00:01:13 - 00:01:15: 真ん中がゼロ 00:01:17 - 00:01:19: これらの値を取得したら 00:01:19 - 00:01:21: 分割され、このようにリストされます 00:01:21 - 00:01:23: 入力ニューロン 入力とも呼ばれます 00:01:23 - 00:01:26: ベクトルまたは配列は単なるリストです 00:01:27 - 00:01:33: それはあなたの今の入力を表しています 00:01:33 - 00:01:36: について考えるのは有益な概念です。 00:01:36 - 00:01:40: このすべてのニューロンの受容野 00:01:40 - 00:01:43: 入力のセットを意味します 00:01:44 - 00:01:46: このニューロンの値を高くする 00:01:46 - 00:01:48: あり得るように 00:01:48 - 00:01:51: 入力ニューロンの場合、これは非常に簡単です 00:01:51 - 00:01:53: それぞれが1つだけに関連付けられています 00:01:54 - 00:01:55: そしていつ 00:01:55 - 00:01:58: そのピクセルはずっと白です 00:01:58 - 00:02:00: その入力ニューロンの値は 00:02:00 - 00:02:03: どこまでも高く 00:02:03 - 00:02:04: 黒と白の市松模様の領域が表示されます 00:02:04 - 00:02:07: 入力ニューロンが気にしないピクセル 00:02:08 - 00:02:10: それらが完全に白またはすべての場合 00:02:10 - 00:02:11: 黒い方法はまだ影響しません 00:02:11 - 00:02:17: その入力ニューロンの値 00:02:17 - 00:02:19: ニューラルネットワークを構築する 00:02:19 - 00:02:21: 私たちが作成します 00:02:22 - 00:02:25: これが最初に行うことは、合計することです 00:02:25 - 00:02:26: すべての値 00:02:26 - 00:02:29: 入力ニューロンの 00:02:29 - 00:02:31: したがって、この場合、すべてを合計すると 00:02:31 - 00:02:35: これらの値は 0.5 になります 00:02:35 - 00:02:37: 物事を少し複雑にするために 00:02:38 - 00:02:40: それぞれのつながり 00:02:40 - 00:02:43: 加重とは、 00:02:43 - 00:02:46: その数は1になることができます 00:02:46 - 00:02:47: またはマイナス1 00:02:47 - 00:02:50: またはその間の何か 00:02:50 - 00:02:53: 何かの重さがマイナス1の場合 00:02:53 - 00:02:55: 乗算され、負の値が得られます 00:02:55 - 00:02:57: それの何かがあればそれが追加されます 00:02:57 - 00:02:59: 重みがゼロの場合 00:02:59 - 00:03:02: 実質的に無視 00:03:02 - 00:03:03: これが重み付けされたものです 00:03:03 - 00:03:05: 接続は次のようになります 00:03:05 - 00:03:07: 値の後に気づくでしょう 00:03:07 - 00:03:09: 入力ニューロンの重み付け 00:03:10 - 00:03:13: 値を追加して、最終値にすることができます 00:03:13 - 00:03:18: は完全に異なります 00:03:18 - 00:03:20: グラフィカルに表現すると便利です 01:55:55 - 01:55:57: これらの重み 00:03:21 - 00:03:25: 白のリンクは正の重みで黒 00:03:25 - 00:03:27: リンクは負の重み 00:03:27 - 00:03:29: 線の太さはだいたい 00:03:29 - 00:03:31: の大きさに比例する 00:03:36 - 00:03:38: 次に、加重入力を追加した後 00:03:40 - 00:03:42: 彼らは押しつぶされます 00:03:42 - 00:03:44: そして、それが何を意味するかをお見せします 00:03:44 - 00:03:47: あなたはシグモイドスカッシュ関数を持っています 00:03:47 - 00:03:50: シグモイドは単にS字型を意味します 00:03:50 - 00:03:54: これが行うことは、値を入れることです 00:03:54 - 00:03:56: 0.5としましょう 00:03:56 - 00:03:59: そして、あなたはあなたまで垂直線を走らせます 00:03:59 - 00:04:01: シグモイドと水平水平 00:04:01 - 00:04:03: 交差するところから線を引く 00:04:03 - 00:04:06: そして、それがy軸に当たる場所 00:04:06 - 00:04:08: それはあなたの関数の出力です 00:04:08 - 00:04:10: この場合は 0.5 よりわずかに小さいです。 00:04:10 - 00:04:13: 非常に近いです 00:04:13 - 00:04:16: 入力数が大きくなるにつれて 00:04:16 - 00:04:18: 出力数も大きくなりますが、 00:04:18 - 00:04:21: よりゆっくりと最終的に 00:04:21 - 00:04:23: 入れた数字がどんなに大きくても 00:04:23 - 00:04:25: 答えはいつも 00:04:26 - 00:04:27: 1未満 00:04:27 - 00:04:29: 同様にマイナスになると 00:04:29 - 00:04:31: 答えは常に負より大きい 00:04:32 - 00:04:36: これにより、そのニューロンの値が 00:04:36 - 00:04:38: プラスの範囲外には決して出ない 00:04:38 - 00:04:40: 一からマイナス一 02:55:18 - 02:55:21: これは、 00:04:43 - 00:04:46: ニューラルネットワークでの計算 00:04:46 - 00:04:50: 境界があり安定している 00:04:50 - 00:04:53: したがって、重み付けされた値を合計した後 00:04:53 - 00:04:55: ニューロンとあなたの結果をスカッシュ 00:04:55 - 00:04:59: この場合の出力を取得します 0.746 00:04:59 - 00:05:02: それがニューロンです 00:05:02 - 00:05:03: これを呼び出すことができるので、すべてを折りたたむことができます 01:44:19 - 01:44:20: これはニューロンです 00:05:06 - 00:05:09: 加重合計と結果のスカッシュ 00:05:09 - 00:05:12: そして今、それらの1つだけではなく 00:05:12 - 00:05:14: あなたがそこにたくさんあると仮定します 00:05:14 - 00:05:17: ここでは 4 つ表示されていますが、 00:05:17 - 00:05:20: 400または400万になる可能性があります 00:05:20 - 00:05:22: 今、私たちの写真を明確に保つために 00:05:22 - 00:05:24: ここでは、重みが 00:05:24 - 00:05:26: プラス1のいずれかです 00:05:27 - 00:05:30: マイナス1本の黒い線またはゼロ 00:05:30 - 00:05:33: それらが完全に欠落している場合 00:05:33 - 00:05:36: 実際にはこれらすべてのニューロンが 00:05:36 - 00:05:38: 私たちが作成したのはそれぞれです 00:05:38 - 00:05:42: すべての入力ニューロンに接続 00:05:42 - 00:05:44: そして、それらはすべての間にある程度の重みがあります 00:05:44 - 00:05:49: マイナスワンとプラスワン 00:05:49 - 00:05:51: この最初のレイヤーを作成するとき 00:05:53 - 00:05:55: 受容野はより複雑になる 00:05:55 - 00:05:58: たとえば、ここではそれらのそれぞれが終了します 00:05:58 - 00:06:01: 2 つの入力ニューロンを組み合わせる 00:06:01 - 00:06:05: したがって、受容野の値 00:06:05 - 00:06:07: を作るピクセル値 00:06:07 - 00:06:10: その最初の層のニューロン 00:06:10 - 00:06:12: 可能な限り大きく 00:06:12 - 00:06:15: ピクセルのペアのようになりました 00:06:17 - 00:06:19: すべて白または白と白の混合物 00:06:20 - 00:06:21: 応じて 03:03:29 - 03:03:30: 重み 00:06:26 - 00:06:28: ここのこのニューロン 00:06:28 - 00:06:32: この入力ピクセルにアタッチされます 00:06:32 - 00:06:34: これは左上とこの入力ピクセルです 00:06:34 - 00:06:37: これは左下とそれらの両方です 00:06:37 - 00:06:39: 重みは正です 00:06:39 - 00:06:41: その2つを組み合わせて、 00:06:41 - 00:06:43: それはその受容野です 00:06:43 - 00:06:45: これと受容体のフィールド 00:06:45 - 00:06:47: これのフィールド 00:06:47 - 00:06:49: しかし、このニューロンを見ると 00:06:49 - 00:06:52: それは組み合わせる 03:02:43 - 03:02:45: このピクセル 00:06:54 - 00:06:55: 右上 00:06:56 - 00:06:58: そしてこのピクセル右下 00:06:58 - 00:07:00: の重みはマイナス 1 です。 00:07:00 - 00:07:03: 右下のピクセルなので、 00:07:03 - 00:07:05: 最もアクティブ 00:07:05 - 00:07:07: このピクセルが黒の場合 00:07:07 - 00:07:12: ここに受容野があります 00:07:13 - 00:07:16: 方法に気をつけていたからです 00:07:16 - 00:07:18: その最初のレイヤーを作成しました 00:07:18 - 00:07:22: その値は入力値によく似ています 00:07:22 - 00:07:24: 向きを変えて作成できます 00:07:24 - 00:07:26: その上にある別のレイヤー 00:07:26 - 00:07:29: 1つのレイヤーの出力と同じ方法 00:07:29 - 00:07:32: 次の層への入力であること 00:07:32 - 00:07:34: これを繰り返すことができます 00:07:34 - 00:07:37: 3回または7回または700回 00:07:37 - 00:07:41: 追加レイヤー用 00:07:41 - 00:07:43: 受容野が均一になるたびに 00:07:43 - 00:07:45: より複雑 00:07:45 - 00:07:47: ここで同じロジックを使用して確認できます 00:07:47 - 00:07:49: 今、彼らはカバーします 00:07:49 - 00:07:51: すべてのピクセル 00:07:51 - 00:07:54: そしてもっとええともっと特別なアレンジメント 00:07:54 - 00:07:59: どれが黒でどれが白か 00:07:59 - 00:08:03: 別のレイヤーを作成できます 00:08:03 - 00:08:05: これらすべてのニューロンが 1 つの層に 00:08:05 - 00:08:07: のすべてのニューロンに接続されています。 00:08:07 - 00:08:09: 前のレイヤーですが、 00:08:09 - 00:08:11: ここで、これらの重みのほとんどはゼロです 00:08:11 - 00:08:13: そして表示されない 00:08:13 - 00:08:16: 一般的にはそうではない 00:08:16 - 00:08:18: ですから、物事を混ぜ合わせるために、 00:08:18 - 00:08:20: 新しいレイヤーですが、気づいたら 00:08:20 - 00:08:22: スカッシュ機能はもうありません 00:08:22 - 00:08:25: 私たちは整流と呼ばれる新しいものを持っています 03:00:07 - 03:00:08: リニアユニット 00:08:26 - 00:08:28: これは別の 00:08:28 - 00:08:31: 人気のニューロン型 00:08:31 - 00:08:33: だからあなたはあなたのすべての加重合計を行います 00:08:33 - 00:08:36: 入力とスカッシュの代わりに 00:08:36 - 00:08:40: あなたは調整された線形単位をします 00:08:40 - 00:08:44: 負の場合は修正する 00:08:44 - 00:08:46: 正の場合は値をゼロにします 00:08:46 - 00:08:49: あなたは値を保持します 00:08:49 - 00:08:52: これは明らかに非常に簡単に計算できます 00:08:52 - 00:08:55: そして、それは非常に素晴らしいことがわかりました 00:08:55 - 00:08:57: ニューラル ネットワークの安定性プロパティ 00:08:57 - 00:09:01: 実践でも 00:09:01 - 00:09:04: これを行った後、 00:09:04 - 00:09:05: 重みは正で、一部は 00:09:05 - 00:09:07: 修正されたものへの負の接続 00:09:07 - 00:09:10: 私たちが得る線形単位 00:09:10 - 00:09:13: 受容野とそれらは反対です 00:09:13 - 00:09:16: そこのパターンを見ると 00:09:16 - 00:09:18: そして最後に、次のように作成したとき 00:09:18 - 00:09:20: 私たちと同じ数のニューロンを持つ多くの層 00:09:20 - 00:09:23: 出力レイヤーを作成したい 00:09:23 - 00:09:25: ここには 4 つの出力があります。 00:09:25 - 00:09:26: に興味がある 00:09:26 - 00:09:29: イメージは固いですか 00:09:29 - 00:09:34: 垂直 斜めまたは水平 00:09:34 - 00:09:37: ここで例を見てみましょう 00:09:37 - 00:09:38: これがどのように機能するかを考えてみましょう 00:09:38 - 00:09:41: この入力画像で 00:09:41 - 00:09:43: 左に示す 00:09:43 - 00:09:46: 上部に暗いピクセル、下部に白いピクセル 00:09:46 - 00:09:50: それを入力レイヤーに伝播するとき 00:09:50 - 00:09:52: これは、それらの値がどのように見えるかです 00:09:53 - 00:09:56: 上のピクセル 下のピクセル 00:09:56 - 00:10:00: それを最初のレイヤーに移動すると 00:10:00 - 00:10:03: 暗い色の組み合わせを見ることができます 00:10:04 - 00:10:07: と明るいピクセルが一緒に 00:10:07 - 00:10:08: 私たちをゼロにする 00:10:11 - 00:10:13: 一方、ここには 00:10:13 - 00:10:15: 暗いピクセルの組み合わせ 00:10:15 - 00:10:17: プラスマイナスの明るいピクセル 00:10:18 - 00:10:21: これで負の値が得られます 00:10:22 - 00:10:23: これは理にかなっています 00:10:23 - 00:10:26: ここの受容野 00:10:26 - 00:10:28: 左上ピクセル白 00:10:28 - 00:10:30: 左下のピクセルブラック 00:10:30 - 00:10:33: は、入力の正反対です 00:10:33 - 00:10:34: 私たちは得ています 00:10:34 - 00:10:36: したがって、その値は 00:10:36 - 00:10:38: できるだけ低く 03:09:11 - 03:09:15: マイナス1 00:10:42 - 00:10:44: 次のレイヤーに移動すると、 00:10:44 - 00:10:47: ゼロを組み合わせた同じ種類のもの 00:10:47 - 00:10:49: ゼロを得る 00:10:49 - 00:10:52: ええと、否定を組み合わせて 00:10:52 - 00:10:54: および負の重みを持つ負の値 00:10:54 - 00:10:56: それはポジティブになります 00:10:56 - 00:10:57: ゼロを取得する 00:10:57 - 00:10:59: ここでは、2 つのネガを組み合わせています。 00:10:59 - 00:11:01: ネガティブになる 00:11:01 - 00:11:03: もう一度、あなたは受容体に気づくでしょう 00:11:03 - 00:11:05: this のフィールドは、正確に の逆です 00:11:05 - 00:11:08: 私たちの入力なので、それは理にかなっています 00:11:08 - 00:11:10: 体重がマイナスになる 00:11:10 - 00:11:14: またはその値が負になる 00:11:14 - 00:11:16: 次のレイヤーに移動します 00:11:16 - 00:11:18: これらのすべてはもちろん、これらのゼロ 00:11:18 - 00:11:21: 前方に伝搬する 00:11:22 - 00:11:25: これは負です 負の値があります 00:11:25 - 00:11:28: 正の重みを持つので、 00:11:28 - 00:11:29: 私たちはただまっすぐ進むから 00:11:29 - 00:11:32: 調整された線形ユニットを持っている 00:11:32 - 00:11:34: 負の値がゼロになる 00:11:34 - 00:11:37: だから今、それはまたゼロですが、これは2つです 00:11:37 - 00:11:39: 矯正されてプラスになる 00:11:39 - 00:11:42: 負の時間 負は正です 00:11:42 - 00:11:44: 最終的に出力にたどり着いたとき 00:11:44 - 00:11:46: を除いてすべてゼロであることがわかります。 00:11:46 - 00:11:48: この水平は正であり、 00:11:48 - 00:11:51: それが私たちのニューラルネットワークの答えです 00:11:51 - 00:11:53: これは言った 00:11:53 - 00:11:57: 水平線のイメージ 00:11:58 - 00:12:00: 通常、ニューラル ネットワークはそれほど優れていません 00:12:00 - 00:12:02: それほどきれいではない 00:12:02 - 00:12:03: だからの概念があります 00:12:03 - 00:12:06: 真実とは何かを入力して 00:12:06 - 00:12:08: この場合、真実は、これには 00:12:08 - 00:12:11: 1 以外のすべての値に対してゼロ 00:12:12 - 00:12:14: 水平ではありません 00:12:14 - 00:12:16: 垂直であり、斜めではありません 00:12:16 - 00:12:19: はい、水平です 00:12:19 - 00:12:22: 任意のニューラルネットワークは 00:12:22 - 00:12:24: 正確には真実ではない答え 00:12:24 - 00:12:27: 少しまたはかなりずれている可能性があります 00:12:27 - 00:12:29: そして、エラー 00:12:29 - 00:12:32: 差の大きさです 00:12:32 - 00:12:35: 真実と与えられた答えの間 00:12:35 - 00:12:36: これらすべてを合計して 00:12:36 - 00:12:40: ニューラル ネットワークの合計エラー 00:12:40 - 00:12:42: だからアイデア 00:12:42 - 00:12:44: 学習とアイデア全体 00:12:45 - 00:12:48: ウェイトを調整して 00:12:48 - 00:12:51: 誤差はできるだけ少なく 00:12:51 - 00:12:54: これが行われる方法は 00:12:54 - 00:12:56: 画像を入れて計算します 00:12:56 - 00:12:58: 最後にエラー 00:12:58 - 00:13:00: 次に、それらを調整する方法を探します 00:13:00 - 00:13:03: ウェイトを高くしたり低くしたりして、どちらかを作ります 00:13:03 - 00:13:04: そのエラーが上がる 00:13:04 - 00:13:06: またはダウンし、もちろん調整します 00:13:06 - 00:13:08: エラーを起こす方法の重み 00:13:11 - 00:13:14: これを行う際の問題はそれぞれです 00:13:14 - 00:13:17: 戻ってエラーを計算する時間 00:13:17 - 00:13:20: これらすべての重みを乗算する必要があります 00:13:20 - 00:13:23: それぞれのすべてのニューロン値によって 00:13:24 - 00:13:25: そして、私たちはそれを何度も繰り返さなければなりません 00:13:25 - 00:13:28: 体重ごとに1回 00:13:28 - 00:13:29: これには永遠に時間がかかります 00:13:29 - 00:13:32: 計算用語で 00:13:32 - 00:13:34: コンピューティング規模なので、それは 00:13:34 - 00:13:36: 大きなニューラルを訓練する実用的な方法 00:13:39 - 00:13:41: ただ転がすのではなく、想像することができます 00:13:41 - 00:13:43: 単純な谷の底まで 00:13:43 - 00:13:45: 非常に高い次元の谷を持ち、 00:13:45 - 00:13:48: 私たちは下る道を見つけなければなりません。 00:13:48 - 00:13:50: 非常に多くの次元があります 00:13:50 - 00:13:51: これらの重みのそれぞれ 00:13:52 - 00:13:54: 計算が法外になる 00:13:57 - 00:13:59: 幸いなことに洞察がありました 00:14:00 - 00:14:02: これを非常に合理的な方法で行いましょう 00:14:03 - 00:14:05: そしてそれはそれです 00:14:05 - 00:14:06: 私たちがどのように設計するかについて注意を払っていれば、 00:14:06 - 00:14:09: 計算できるニューラルネットワーク 00:14:09 - 00:14:12: 私たちができる勾配を直接傾斜させます 00:14:12 - 00:14:14: 必要な方向性を理解する 00:14:14 - 00:14:15: 重さを調整する 00:14:15 - 00:14:17: ずっと戻ることなく 00:14:17 - 00:14:22: ニューラルネットワークと再計算 00:14:22 - 00:14:25: 勾配を確認するだけです 00:14:25 - 00:14:27: 話しているのは、私たちが変化を起こすときです 00:14:27 - 00:14:30: 重量の誤差は少し変わります 01:11:20 - 01:11:21: そしてそれ 00:14:32 - 00:14:34: 重量の変化と 00:14:34 - 00:14:36: エラーの変更 00:14:36 - 00:14:38: は傾きです 00:14:38 - 00:14:40: 数学的にはいくつかの方法があります 00:14:40 - 00:14:41: これを書く 00:14:41 - 00:14:43: 一番下にあるものを優先します 00:14:43 - 00:14:45: 技術的に最も正しい 00:14:45 - 00:14:48: 省略形で d-e-d-w と呼びます 00:14:48 - 00:14:51: 見るたびに考える 00:14:52 - 00:14:53: エラーの変化 00:14:53 - 00:14:55: ウェイトを変更したとき 00:14:56 - 00:14:57: または上のものの変化 00:14:57 - 00:15:00: 一番下の物を変えると 00:15:00 - 00:15:03: ええと、これはええと、少し入ります 00:15:03 - 00:15:06: 微積分の導関数を取ります 00:15:06 - 00:15:08: それが勾配を計算する方法です。 00:15:08 - 00:15:10: あなたにとって新しい 00:15:10 - 00:15:12: の良い学期を強くお勧めします 00:15:12 - 00:15:14: 概念が 00:15:17 - 00:15:19: そして、ええと、それらの多くはとても素敵です 00:15:19 - 00:15:20: 私が見つけた物理的解釈 00:15:20 - 00:15:22: 非常に魅力的 00:15:22 - 00:15:25: でも心配しないでください。 00:15:25 - 00:15:27: この上で、残りの部分に注意を払う 00:15:27 - 00:15:28: そして、あなたはどのように 00:15:28 - 00:15:31: これは動作します 01:54:30 - 01:54:32: だからこの場合 00:15:32 - 00:15:34: 重みをプラス 1 だけ変更すると、 00:15:34 - 00:15:36: エラーはマイナス2で変化し、 00:15:36 - 00:15:39: マイナス2の傾き 00:15:39 - 00:15:42: それは私たちの方向性を教えてくれます 00:15:42 - 00:15:44: 体重と体重を調整する必要があります 00:15:44 - 00:15:49: エラーを下げるように調整する必要があります 00:15:49 - 00:15:50: これを行うには、何を知る必要がありますか 00:15:50 - 00:15:52: あなたのエラー関数は 00:15:52 - 00:15:54: エラー関数があると仮定します 00:15:54 - 00:15:57: 重量の二乗でした 00:15:57 - 00:15:59: そしてあなたは私たちの体重を見ることができます 00:15:59 - 00:16:02: -1 です 00:16:02 - 00:16:03: 最初に行うことは、 00:16:05 - 00:16:07: 誤差の変化を変化で割った値 00:16:07 - 00:16:09: 体重d e d w 00:16:09 - 00:16:11: 重みの 2 乗の導関数は 2 です 00:16:11 - 00:16:13: 重さ倍 00:16:13 - 00:16:14: マイナスの重みを差し込む 00:16:14 - 00:16:18: 1 で、マイナスの傾き d e d w が得られます 00:16:22 - 00:16:24: これを可能にするもう1つのトリック 00:16:24 - 00:16:27: ディープ ニューラル ネットワークとの連鎖は 00:16:27 - 00:16:29: これがどのように機能するかを示すために、 00:16:29 - 00:16:31: を備えた非常に単純な自明なニューラル ネットワーク 00:16:31 - 00:16:34: 1 つの非表示レイヤーのみ 1 つの入力レイヤー 00:16:34 - 00:16:37: 1 つの出力レイヤーと 1 つの重み 00:16:37 - 00:16:39: それぞれをつなぐ 00:16:39 - 00:16:42: したがって、y の値が 00:16:42 - 00:16:44: ちょうど値 x 倍の重量です 00:16:44 - 00:16:48: それらを接続する w1 00:16:48 - 00:16:50: したがって、w1 を少し変更すると、 00:16:50 - 00:16:53: に関して y の微分を取る 00:16:54 - 00:16:56: そして、私が変化した場合、傾きは x になります。 00:16:56 - 00:17:00: w1 を少しだけ変更すると、y は次のように変化します。 00:17:00 - 00:17:04: その調整のサイズの x 倍 00:17:04 - 00:17:06: 同様に、次のステップについても見ることができます 00:17:06 - 00:17:07: その e 00:17:08 - 00:17:09: 値 y だけです 00:17:09 - 00:17:11: 重量 w2 倍 00:17:11 - 00:17:14: したがって、d e d y を計算すると、 00:17:14 - 00:17:16: ただw 00:17:16 - 00:17:19: 2. このネットワークは非常にシンプルなので、 00:17:19 - 00:17:22: 端から端まで計算できる 00:17:22 - 00:17:25: x 回 w1 回 w2 00:17:25 - 00:17:27: はエラー e 00:17:27 - 00:17:30: 計算したい場合は 00:17:30 - 00:17:32: w1 を変更するとエラーは変わりますか? 00:17:32 - 00:17:34: それの導関数を取るだけです 00:17:34 - 00:17:35: w1に関して 00:17:36 - 00:17:38: x 回 w2 を取得します 00:17:38 - 00:17:41: これはあなたが今ここで見ることができることを示しています 00:17:41 - 00:17:44: 今計算したものは実際には 00:17:46 - 00:17:49: 私たちが取った一次導関数 00:17:52 - 00:17:55: 次のステップ d e d y の導関数 00:17:55 - 00:17:59: 掛け合わせた 00:17:59 - 00:18:01: これは連鎖しています 00:18:01 - 00:18:03: あなたはそれぞれの小さなものの傾きを計算することができます 00:18:05 - 00:18:08: そして、それらすべてを掛け合わせます 00:18:08 - 00:18:11: 完全なチェーンの勾配を取得するには 00:18:11 - 00:18:13: 全鎖の導関数 00:18:13 - 00:18:15: したがって、より深いニューラル ネットワークでは、これは 00:18:15 - 00:18:18: 方法を知りたい場合は次のようになります 00:18:18 - 00:18:20: 誤差が大きく変わる 00:18:20 - 00:18:22: 深部にあるウェイトを調整すると 00:18:22 - 00:18:26: ネットワーク私は導関数を計算するだけです 00:18:26 - 00:18:29: それぞれの小さな小さなステップのすべての方法 00:18:29 - 00:18:30: 私がしようとしている体重に戻る 00:18:32 - 00:18:35: そして、それらをすべて掛け合わせます 00:18:35 - 00:18:38: これは計算上何回も 00:18:39 - 00:18:41: 以前にやらなければならなかったことよりも 00:18:41 - 00:18:42: 全体の誤差を再計算する 00:18:42 - 00:18:47: 重みごとのニューラル ネットワーク 00:18:47 - 00:18:49: 今私たちが持っているニューラルネットワークで 00:18:49 - 00:18:51: いくつかある 00:18:51 - 00:18:54: 私たちがしなければならない逆伝播の種類 00:18:54 - 00:18:55: 私たちがしなければならないいくつかの操作があります 00:18:55 - 00:18:58: それらのそれぞれに対して行う 00:18:58 - 00:18:59: を計算できなければなりません。 00:19:00 - 00:19:02: 最初のものは重み付けされたものです 00:19:02 - 00:19:07: 2 つのニューロン a と b の間の接続 00:19:07 - 00:19:10: の変化を知っているとしましょう 00:19:10 - 00:19:11: bに関する誤差 00:19:11 - 00:19:14: エラーの変化を知りたい 00:19:14 - 00:19:15: に敬意を表します 00:19:15 - 00:19:20: そこにたどり着くには、db daを知る必要があります 00:19:20 - 00:19:22: そのためには、次のように記述します 00:19:22 - 00:19:24: b と a の関係 00:19:24 - 00:19:26: に関して b の微分を取る 00:19:26 - 00:19:28: a 重みを得る w 00:19:28 - 00:19:31: そして今、私たちはその一歩を踏み出す方法を知っています 00:19:31 - 00:19:32: その方法を知っている 00:19:32 - 00:19:36: 逆伝播の小さなナゲット 00:19:36 - 00:19:38: 私たちが見た別の要素 00:19:38 - 00:19:39: は合計です 00:19:39 - 00:19:41: 私たちのすべてのニューロンは、 00:19:43 - 00:19:46: この逆伝播ステップを実行するには 00:19:46 - 00:19:48: 私たちは私たちが書いたのと同じことをします 00:19:50 - 00:19:52: そして、導関数を取ります 00:19:52 - 00:19:56: 私たちのエンドポイント z の 00:19:56 - 00:19:59: 伝播しているステップ 00:19:59 - 00:20:02: この場合の dz da は 1 つだけです。 00:20:02 - 00:20:05: の合計がある場合、これは理にかなっています 00:20:05 - 00:20:07: たくさんの要素 00:20:07 - 00:20:09: それらの要素の1つを1つ増やします 00:20:09 - 00:20:12: 合計が 1 増加することを期待します 00:20:13 - 00:20:16: 1の傾きの定義 00:20:16 - 00:20:20: そこに一対一の関係 00:20:20 - 00:20:22: 私たちが持っている別の要素 00:20:22 - 00:20:24: 逆伝播できる必要があるのは 00:20:24 - 00:20:26: シグモイド関数 00:20:26 - 00:20:28: だからこれはもう少し 00:20:28 - 00:20:30: 数学的に興味深い 00:20:30 - 00:20:31: 私たちはそれを書くだけです 00:20:31 - 00:20:34: シグマ関数のような省略形 00:20:34 - 00:20:37: ええと、ええと行くことは完全に実行可能です 00:20:37 - 00:20:39: を通して、これの導関数を取ります 00:20:40 - 00:20:42: そしてそれを計算する 00:20:42 - 00:20:45: たまたまこの機能が 00:20:45 - 00:20:47: 素敵な物件を持っています 00:20:47 - 00:20:49: その派生物を取得するには 00:20:51 - 00:20:53: 1マイナス自体 00:20:53 - 00:20:56: これは非常に簡単です 00:21:00 - 00:21:01: 使用した別の要素は 00:21:01 - 00:21:03: 整流された線形ユニット 00:21:03 - 00:21:05: 戻る方法を理解するためにもう一度 00:21:05 - 00:21:07: これを広めて、書き出すだけです 00:21:08 - 00:21:11: a が正の場合、b は a に等しい 00:21:11 - 00:21:13: それ以外の場合はゼロです 00:21:14 - 00:21:16: 私たちが取るそれらのそれぞれについて区分的に 00:21:16 - 00:21:20: 導関数であるため、db da は次のいずれかです。 00:21:20 - 00:21:24: 正またはゼロ 00:21:24 - 00:21:26: これらすべてと同様に 00:21:26 - 00:21:29: 少しの逆伝播ステップ 00:21:29 - 00:21:31: そしてそれらを連鎖させる能力 00:21:32 - 00:21:35: 調整の効果を計算できます 00:21:35 - 00:21:37: 任意の重み 00:21:37 - 00:21:38: エラーについて 00:21:38 - 00:21:41: 任意の入力に対して 00:21:41 - 00:21:43: そして訓練する 00:21:44 - 00:21:47: 完全に接続されたネットワークから始めます 00:21:47 - 00:21:49: これらの重みのどれかはわかりません 00:21:49 - 00:21:51: する必要があります 00:21:51 - 00:21:53: そのため、すべてのランダムな値を割り当てます 00:21:53 - 00:21:55: 私たちは完全に 00:21:55 - 00:21:58: 任意のランダム ニューラル ネットワーク 00:21:58 - 00:22:01: 知っている入力を入れます 00:22:01 - 00:22:03: 固体かどうかはわかります 00:22:03 - 00:22:05: 垂直斜めまたは水平なので、 00:22:06 - 00:22:07: 真実がどうあるべきかを知る 00:22:07 - 00:22:11: 誤差を計算できます 00:22:12 - 00:22:14: 実行してエラーを計算します 00:22:14 - 00:22:17: 逆伝播を使用して通過する 00:22:17 - 00:22:20: これらのウェイトをすべて微調整します 00:22:20 - 00:22:23: 少し正しい方向に 00:22:23 - 00:22:24: そして、私たちは別のものでそれをもう一度行います 00:22:24 - 00:22:28: 入力し、別の入力でもう一度 00:22:28 - 00:22:29: 私たちはそれを回避することができれば 00:22:29 - 00:22:33: 何千回、何百万回も 00:22:33 - 00:22:36: そして最終的にこれらの重みはすべて 00:22:36 - 00:22:39: 彼らはその多くを転がり落ちます 00:22:39 - 00:22:42: 次元の谷から素敵な低い場所へ 00:22:42 - 00:22:44: 底に 00:22:44 - 00:22:46: それは本当にうまく機能し、 00:22:46 - 00:22:49: ほとんどの点で真実にかなり近い 00:22:52 - 00:22:54: 本当に運が良ければ、次のようになります 00:22:54 - 00:22:58: 私たちが直感的に始めたこと 00:23:00 - 00:23:03: それらのニューロンの受容野と 00:23:03 - 00:23:05: 比較的まばら 00:23:05 - 00:23:07: 表現は、ほとんどの 00:23:07 - 00:23:08: 重みは 00:23:08 - 00:23:11: 小さいかゼロに近く、そうではない 00:23:11 - 00:23:13: いつもそうなるけど、 00:23:13 - 00:23:16: 私たちが保証しているのは、 00:23:16 - 00:23:19: あなたのかなり良い表現を見つける 00:23:19 - 00:23:21: 調整できることをよく知っている 00:23:21 - 00:23:22: それらの重み 00:23:22 - 00:23:24: できるだけ右側に寄せる 00:23:24 - 00:23:30: すべての入力に対する答え 00:23:30 - 00:23:32: ここまで説明してきたことは 00:23:32 - 00:23:33: 原則の基本的な紹介 00:23:33 - 00:23:36: 私が教えていないニューラルネットワークの背後にある 00:23:36 - 00:23:38: あなたは外出するのに十分です 00:23:38 - 00:23:39: 独自のものを作成します 00:23:39 - 00:23:41: でもやる気があるなら 00:23:41 - 00:23:43: 私はそれを強くお勧めします 00:23:44 - 00:23:45: ここにいくつかのリソースがあります 00:23:46 - 00:23:47: 役に立つ 00:23:47 - 00:23:49: バイアスについて学びたいと思うでしょう 00:23:50 - 00:23:53: ドロップアウトは便利なトレーニング ツールです 00:23:53 - 00:23:56: 利用可能なリソースがいくつかあります 00:23:56 - 00:24:00: の専門家であるアンドレ・カルパティから 00:24:00 - 00:24:02: ニューラルネットワークと優れた教育 00:24:02 - 00:24:05: それについても素晴らしいことがあります 00:24:05 - 00:24:07: ディープの黒魔術と呼ばれる記事 00:24:07 - 00:24:09: たくさんある学習 00:24:09 - 00:24:12: 塹壕のヒントから実用的 00:24:12 - 00:24:15: それらをうまく機能させる方法について 00:24:16 - 00:24:17: ニューラルネットワークは難しいことで有名です 00:24:17 - 00:24:19: 解釈する 00:24:19 - 00:24:20: 彼らが実際に何であるかを知るのは難しい 00:24:20 - 00:24:22: 彼らを訓練するときの学習 00:24:22 - 00:24:23: それでは、詳しく見てみましょう 00:24:23 - 00:24:25: うまく撮れるかどうか 00:24:25 - 00:24:27: 内部で何が起こっているのか 00:24:27 - 00:24:30: 他のすべての監視対象マシンと同じように 00:24:30 - 00:24:31: 学習モデル 00:24:31 - 00:24:33: ニューラル ネットワークは関係を学習します 00:24:33 - 00:24:35: 入力変数と出力の間 00:24:37 - 00:24:39: 実際、それがどのように関連しているかさえ見ることができます 00:24:39 - 00:24:41: 最もアイコニックなモデルへ 00:24:41 - 00:24:44: 線形回帰 00:24:44 - 00:24:45: 単純な線形回帰は、 00:24:46 - 00:24:47: 間の直線関係 00:24:47 - 00:24:49: 入力変数 x 00:24:50 - 00:24:52: および出力変数 y 00:24:52 - 00:24:55: x に定数を掛ける 00:24:55 - 00:24:57: これはたまたまの傾きでもあります 00:24:57 - 00:24:59: この線 00:24:59 - 00:25:01: そしてそれは別の定数 b に追加されます 00:25:01 - 00:25:03: たまたま行がどこにあるか 00:25:03 - 00:25:06: y 軸を横切る 00:25:06 - 00:25:08: これを絵で表すことができます 00:25:08 - 00:25:10: 入力値 x 00:25:10 - 00:25:15: 定数を m 倍する 00:25:15 - 00:25:17: b を 1 倍する 00:25:18 - 00:25:19: そして、それらは一緒に追加されて 00:25:21 - 00:25:24: これは y のグラフ表示です 00:25:24 - 00:25:25: m x に等しい 00:25:26 - 00:25:29: プラスb 00:25:30 - 00:25:32: 左端の円形の記号 00:25:32 - 00:25:34: 値が渡されたことを示すだけです 00:25:35 - 00:25:39: m および b とラベル付けされた長方形 l 00:25:48 - 00:25:50: に何が入るかを示します 00:25:40 - 00:25:44: 左にmまたはbを掛けて出てきます 00:25:46 - 00:25:48: 大文字のシグマのボックス 00:25:50 - 00:25:53: 左が足し合わされて吐き出される 00:25:55 - 00:25:57: すべての名前を変更できます 00:25:57 - 00:25:59: 別の表現の記号 00:25:59 - 00:26:01: これはまだ直線です 00:26:01 - 00:26:02: 私たちが変えたばかりの関係 00:26:02 - 00:26:05: すべての変数の名前 00:26:05 - 00:26:07: 私たちがこれを行っている理由は 00:26:07 - 00:26:10: 線形回帰を 00:26:10 - 00:26:13: ニューラル ネットワークで使用する表記法 00:26:13 - 00:26:15: これは物事を追跡するのに役立ちます 00:26:15 - 00:26:18: 私たちが前進するにつれて 00:26:18 - 00:26:20: この時点で、私たちはまっすぐに曲がりました 00:26:20 - 00:26:23: 直線方程式をネットワークに 00:26:23 - 00:26:25: ネットワークとは、ノードを持つすべてのものです 00:26:25 - 00:26:28: エッジで接続 01:14:45 - 01:14:47: この場合 00:26:29 - 00:26:33: xサブ0とxサブ1 00:26:33 - 00:26:35: 入力ノードです 00:26:35 - 00:26:39: v sub 0 は出力ノードです 00:26:39 - 00:26:41: そしてそれらをつなぐ重みは 00:26:43 - 00:26:44: これは伝統的な意味ではありません 00:26:44 - 00:26:48: のようなプロットまたはグリッドを意味するグラフ 00:26:48 - 00:26:51: グラフ電卓または方眼紙 00:26:51 - 00:26:54: それはネットワークの正式な言葉です 00:26:54 - 00:26:57: エッジで接続されたノードの場合 00:26:57 - 00:26:58: 可能性のある別の用語 00:26:58 - 00:27:02: ヒアは有向非巡回グラフです 00:27:02 - 00:27:06: d-a-g または dag a と省略されます。 00:27:06 - 00:27:08: グラフは、エッジがちょうど入る場所です 00:27:08 - 00:27:09: ひとつの方向 00:27:09 - 00:27:11: 私たちの場合には 00:27:11 - 00:27:14: 入力は出力に行きますが、出力はありません 00:27:14 - 00:27:16: 入力に戻ります 00:27:16 - 00:27:19: 私たちのエッジは向けられています 00:27:20 - 00:27:23: ループを描くことができないことを意味します 00:27:23 - 00:27:25: ノードにアクセスすると、ノードはありません 00:27:25 - 00:27:27: エッジからノード、エッジへとジャンプする方法 00:27:28 - 00:27:29: ノードに戻り、元の場所に戻ります 00:27:30 - 00:27:32: すべてが一方向に流れる 00:27:32 - 00:27:35: グラフを通して 00:27:35 - 00:27:36: モデルのタイプを把握できます 00:27:36 - 00:27:39: このネットワークが学習できること 00:27:39 - 00:27:40: のランダムな値を選択することによって 00:27:42 - 00:27:47: w サブ 0 0 と w サブ 1 00:27:47 - 00:27:49: そして、どんな関係が飛び出すかを見る 00:27:49 - 00:27:51: 間で 00:27:51 - 00:27:52: ×サブ1 00:27:52 - 00:27:54: および v サブ 0。 00:27:54 - 00:27:57: 0 の x を 1 に設定したことを思い出してください。 00:27:57 - 00:27:59: いつもそこに持っている 00:27:59 - 00:28:02: これはバイアスと呼ばれる特別なノードです 00:28:04 - 00:28:06: 当然のことながら、 00:28:06 - 00:28:08: そこから生まれる関係 00:28:08 - 00:28:11: 線形モデルはすべて直線です 00:28:11 - 00:28:13: 結局、私たちは方程式を取りました 00:28:13 - 00:28:16: 行を再配置しましたが、私たちは 00:28:16 - 00:28:18: 実質的には変更していません 00:28:21 - 00:28:22: 制限しなければならない理由はない 00:28:22 - 00:28:25: 自分自身を 1 つの入力変数に 00:28:25 - 00:28:27: もう1つ追加できます 00:28:27 - 00:28:30: ここで x は 0 です 00:28:30 - 00:28:34: xサブ1とxサブ2。 00:28:34 - 00:28:37: x sub 2 と私たちの間にエッジを描きます 00:28:38 - 00:28:40: 重みで 00:28:41 - 00:28:43: サブ 2 0 00:28:43 - 00:28:45: ×サブ2 00:28:45 - 00:28:48: 倍 w サブ 2 0 00:28:48 - 00:28:49: 再びです 00:28:49 - 00:28:52: あなたサブ2 0 00:28:52 - 00:28:55: そして、私たちのすべてのuが一緒に追加されます 00:28:55 - 00:28:58: v サブ 0 を作成します。 00:28:58 - 00:29:00: さらに多くの入力を追加できます 00:37:04 - 00:37:05: 私たちが欲しい 00:29:02 - 00:29:04: これはまだ一次方程式ですが、 00:29:04 - 00:29:06: 二次元である代わりに、 00:29:06 - 00:29:09: 三次元以上にする 00:29:09 - 00:29:11: これを数学的に書くと 00:29:11 - 00:29:14: 非常に面倒なので、ショートカットを使用します 00:29:14 - 00:29:17: 下付き文字 i に置き換えます 00:29:17 - 00:29:19: 入力のインデックスの場合、それは 00:29:19 - 00:29:23: 私たちが話している入力の数 00:29:23 - 00:29:27: これにより、 u sub i zero と書くことができます 00:29:27 - 00:29:28: 私たちのどこ 00:29:28 - 00:29:30: あなたのサブ私 00:29:30 - 00:29:32: x sub i に等しい 00:29:32 - 00:29:36: 回 w サブ i ゼロ 00:29:36 - 00:29:39: 繰り返しますが、出力 v サブゼロはちょうど 00:29:39 - 00:29:43: i のすべての値の合計 00:29:43 - 00:29:47: u sub i zeroの 00:29:47 - 00:29:48: この 3 次元の場合、次のことができます。 00:29:48 - 00:29:50: 出現するモデルをもう一度見てください 00:29:50 - 00:29:54: w sub i をランダムに選択すると 00:29:54 - 00:29:57: 重みをゼロにする 00:29:57 - 00:29:59: 私たちが期待するように 00:29:59 - 00:30:01: 私たちはまだ3次元を取得します 00:30:01 - 00:30:03: この線の平面に相当する 00:30:05 - 00:30:06: これをさらに拡張すると 00:30:06 - 00:30:08: m次元を取得する入力 00:30:08 - 00:30:10: と呼ばれる行に相当する 00:30:10 - 00:30:13: m次元超平面 00:30:13 - 00:30:15: ここまでは順調ですね 00:30:15 - 00:30:17: 今、私たちはより洗練されたものになり始めることができます 00:30:17 - 00:30:19: 私たちのインプット 00:30:19 - 00:30:22: x sub 1 は出力 v によく似ています 00:30:22 - 00:30:24: ゼロ以下 00:30:24 - 00:30:26: 実際、私たちを妨げるものは何もありません 00:30:26 - 00:30:28: 私たちの出力を取得することから 00:30:28 - 00:30:31: そして、それを別の入力として使用します 00:30:31 - 00:30:34: このようなネットワーク 00:30:34 - 00:30:37: 今、私たちは2つの別々の同一のものを持っています 00:30:38 - 00:30:42: 下付きローマ数字 i を追加できます 00:30:42 - 00:30:46: および下付きローマ数字 i i または two 00:30:46 - 00:30:49: に応じて私たちの方程式に 00:30:49 - 00:30:51: 参照しているレイヤー 00:30:51 - 00:30:53: そして、私たちの x を覚えておく必要があります 00:30:53 - 00:30:54: サブ1 00:30:54 - 00:30:56: レイヤー2で 00:30:56 - 00:31:01: レイヤー 1 の v sub 0 と同じです。 00:31:01 - 00:31:03: これらの式は同じだからです 00:31:03 - 00:31:05: そして各レイヤー 各レイヤー 00:31:05 - 00:31:07: これを次のように減らすことができます。 00:31:07 - 00:31:10: 下付き文字を追加する一連の方程式 00:31:10 - 00:31:12: 大文字の l は、現在のレイヤーを表します 00:31:12 - 00:31:15: について話す 00:31:15 - 00:31:17: ここで続行すると、次のように仮定します 00:31:17 - 00:31:19: すべてのレイヤーが同一であり、 00:31:19 - 00:31:21: 方程式をきれいに保ちましょう 00:31:21 - 00:31:23: 首都 l のうち 00:31:23 - 00:31:25: しかし、覚えておいてください 00:31:25 - 00:31:26: 完全に正しいだろうし、 00:31:26 - 00:31:29: verbose l を追加します 00:31:29 - 00:31:32: すべての終わりに添え字 00:31:32 - 00:31:36: 属するレイヤーを指定する 00:31:36 - 00:31:38: これで2つのレイヤーができました 00:31:38 - 00:31:40: 接続できない理由はありません 00:31:40 - 00:31:43: それらを複数の場所で 00:31:43 - 00:31:45: 最初のレイヤー生成の代わりに 00:31:45 - 00:31:47: 1 つの出力だけで、複数の出力を作成できます 00:31:49 - 00:31:52: この図では、2 番目の出力を追加します 00:31:52 - 00:31:53: v サブ 1 00:31:53 - 00:31:55: これを接続します 00:31:55 - 00:31:58: 2番目のレイヤーへの3番目の入力へ 00:31:58 - 00:32:01: ×サブ2。 00:32:01 - 00:32:04: x sub 0 入力が 00:32:04 - 00:32:07: すべてのレイヤーは常に 1 になります。 00:32:08 - 00:32:10: そのバイアスノードは、 00:32:12 - 00:32:14: 現在2つのノードがあります 00:32:14 - 00:32:16: 両層で共有 00:32:16 - 00:32:19: それに応じて方程式を修正できます 00:32:19 - 00:32:22: どの共有ノードを指定するか 00:32:22 - 00:32:24: について話している 00:32:24 - 00:32:26: それらはまったく同じように動作するため、 00:32:26 - 00:32:29: 効率的で方程式を再利用する 00:32:29 - 00:32:33: ただし、添え字jを指定できます 00:32:33 - 00:32:35: 私たちが話している出力を示すために 00:32:37 - 00:32:40: i番目の入力を接続している場合 00:32:40 - 00:32:43: j番目の出力へ 00:32:44 - 00:32:48: i と j によって重みが決まります 00:32:48 - 00:32:49: 適用されます 00:32:49 - 00:32:53: そして、あなたは一緒に追加されます 00:32:53 - 00:32:57: 出力 v サブ j を作成する 00:32:57 - 00:32:58: これは何回でもできます 00:33:00 - 00:33:02: これらの共有ノードをいくつでも追加できます 00:33:02 - 00:33:03: 私たちが気にするように 00:33:03 - 00:33:06: モデルは全体として知っているだけです 00:33:06 - 00:33:10: 入力 x sub 1 を最初の層に 00:33:10 - 00:33:11: そして出力 00:33:11 - 00:33:15: v 最後のレイヤーのサブ 0 00:33:15 - 00:33:16: 誰かの視点から 00:33:16 - 00:33:18: モデルの外に座って共有 00:33:18 - 00:33:20: レイヤー 1 とレイヤー 2 の間のノードは 00:33:21 - 00:33:24: 彼らはブラックボックスの中にいる 00:33:24 - 00:33:26: このため、彼らは隠されていると呼ばれています 00:33:28 - 00:33:30: この2層を線形にすることができます 00:33:31 - 00:33:34: 100 個の隠しノードを作成する 00:33:34 - 00:33:36: すべての重みをランダムに設定する 00:33:36 - 00:33:39: そして、それが生成するモデルを確認します 00:33:40 - 00:33:43: この構造をすべて追加した後でも 00:33:43 - 00:33:45: 結果のモデルはまだまっすぐです 00:33:46 - 00:33:48: 実際にはいくつでも構いません 00:33:48 - 00:33:49: レイヤーまたは隠しノードの数 00:33:49 - 00:33:51: 各レイヤーは 00:33:51 - 00:33:54: これらの線形要素の任意の組み合わせ 00:33:54 - 00:33:57: 重みと合計を使用すると、常に 00:33:57 - 00:33:59: 直線的な結果を出す 00:33:59 - 00:34:01: これは実際にはの特徴の1つです 00:34:01 - 00:34:03: それをとても簡単にする線形計算 00:34:03 - 00:34:04: 一緒に働く 00:34:04 - 00:34:07: 残念ながら、私たちにとっては 00:34:07 - 00:34:09: 本当に退屈なモデル 00:34:09 - 00:34:11: 直線で十分な場合もある 00:34:11 - 00:34:13: しかし、それが私たちがニューラルに行く理由ではありません 00:34:13 - 00:34:15: 私たちが何かを欲しがるネットワーク 00:34:15 - 00:34:18: もう少し洗練された 00:34:18 - 00:34:20: より柔軟なモデルを得るために 00:34:20 - 00:34:22: いくつか追加する必要があります 00:34:24 - 00:34:27: ここで線形方程式を修正します 00:34:27 - 00:34:31: 出力を計算した後 v sub 0 00:34:31 - 00:34:34: 私たちはそれを別の機能に服従させます 00:34:35 - 00:34:37: 線形ではない 00:34:37 - 00:34:38: 結果を呼び出します 00:34:38 - 00:34:41: yサブゼロ 00:34:41 - 00:34:44: 非常に一般的な非線形関数の 1 つ 00:34:44 - 00:34:48: ここに追加するのはロジスティック関数です 00:34:48 - 00:34:50: s のような形をしているので、 00:34:50 - 00:34:53: シグモイド関数とも呼ばれる 00:34:53 - 00:34:55: それは混乱を招く可能性がありますが 00:34:55 - 00:34:57: 技術的には、 00:34:57 - 00:35:00: s はシグモイド 00:35:00 - 00:35:02: ロジスティックの感覚をつかむことができます 00:35:02 - 00:35:04: 関数はランダムを選択することで次のようになります 00:35:04 - 00:35:06: この 1 つの入力の重み 00:35:06 - 00:35:09: 1 出力 1 層ネットワーク 00:35:09 - 00:35:13: そして家族との出会い 00:35:13 - 00:35:15: ロジスティックの注目すべき特徴の 1 つ 00:35:15 - 00:35:17: 関数は、それらがゼロの間にあるということです 00:35:17 - 00:35:18: そして一つ 00:35:18 - 00:35:19: このため、彼らはまた呼ばれます 00:35:19 - 00:35:22: スカッシュ関数 00:35:22 - 00:35:24: あなたは直線を取ることを想像することができます 00:35:24 - 00:35:27: 次に、エッジを押しつぶして曲げます 00:35:27 - 00:35:29: 全体が 00:35:29 - 00:35:30: ものは 0 から 1 の間に収まる 00:35:30 - 00:35:34: どこまで行っても 00:35:34 - 00:35:36: ロジスティック関数を使用すると、 00:35:36 - 00:35:37: マシンとの別の接続に私たち 00:35:37 - 00:35:41: 学習モデルのロジスティック回帰 00:35:41 - 00:35:43: これは少し混乱します 00:35:43 - 00:35:45: 回帰とは、 00:35:45 - 00:35:48: 入力と 00:35:49 - 00:35:51: 通常、直線または曲線の形で 00:35:51 - 00:35:55: またはある種の表面 00:35:55 - 00:35:57: ロジスティック回帰は実際には次のように使用されます 00:35:57 - 00:36:00: ほとんどの場合分類子 00:36:00 - 00:36:01: 間の関係を見つけます 00:36:01 - 00:36:04: 連続入力変数と 00:36:04 - 00:36:07: カテゴリ出力変数 00:36:07 - 00:36:09: 1つのカテゴリの観測を扱います 00:36:09 - 00:36:11: ゼロとして 00:36:11 - 00:36:12: 他の観察を扱います 00:36:12 - 00:36:14: ものとして分類する 00:36:14 - 00:36:16: そして、ロジスティック関数を見つけます 00:36:16 - 00:36:20: これらすべての観察に最もよく適合する 00:36:20 - 00:36:22: 次に、モデルを解釈するために、 00:36:22 - 00:36:25: 多くの場合、しきい値は約 0.5 です。 00:36:25 - 00:36:28: 曲線がしきい値を超えています 00:36:30 - 00:36:32: その行の左側のすべてが 00:36:32 - 00:36:34: 1 つのカテゴリに分類されると予測され、 00:36:34 - 00:36:36: その行の右側のすべてが 00:36:36 - 00:36:39: 他に転落すると予想 00:36:39 - 00:36:41: これは、回帰アルゴリズムが取得する方法です 00:36:41 - 00:36:43: 分類に変更 00:36:45 - 00:36:48: 線形関数と同様に、 00:36:48 - 00:36:51: 入力を追加しない理由 00:36:51 - 00:36:52: ロジスティック回帰ができることを知っています 00:36:52 - 00:36:54: 多くの入力変数を操作し、 00:36:54 - 00:36:58: グラフでもそれを表すことができます 00:36:58 - 00:37:00: ここでは 1 つだけ追加します 00:37:00 - 00:37:01: プロット3を維持するために 00:37:01 - 00:37:04: 次元ですが、いくつでも追加できます 00:37:05 - 00:37:07: これがどのタイプの関数かを確認するには 00:37:07 - 00:37:09: ネットワークは作成できます 束を選択できます 00:37:09 - 00:37:11: 重みのランダム値 00:37:12 - 00:37:14: あなたが期待していたように、機能 00:37:14 - 00:37:16: 私たちが作るものはまだS字型です 00:37:16 - 00:37:19: でも今は三次元です 00:37:19 - 00:37:21: 彼らは横に敷かれたテーブルクロスのように見えます 00:37:21 - 00:37:25: 高さの異なる 2 つのテーブル 00:37:25 - 00:37:27: さらに重要なことは、 00:37:27 - 00:37:30: 上に投影された等高線 00:37:30 - 00:37:32: プロットの床 00:37:32 - 00:37:34: それらがすべて完璧であることがわかります 00:37:34 - 00:37:37: この結果は、 00:37:38 - 00:37:40: 実行するために選択するしきい値 00:37:41 - 00:37:44: 入力スペースを2つに分割します 00:37:45 - 00:37:48: 分割線が直線である 00:37:48 - 00:37:51: これが、ロジスティック回帰が 00:37:51 - 00:37:55: 線形分類器として記述 00:37:55 - 00:37:57: 入力の数に関係なく 00:37:57 - 00:37:58: あなたがどんな次元空間であっても 00:37:58 - 00:37:59: で働く 00:37:59 - 00:38:01: ロジスティック回帰は常にそれを分割します 00:38:01 - 00:38:04: 線または平面を使用して 2 つの半分に 00:38:04 - 00:38:06: または適切な超平面 00:38:09 - 00:38:11: 別の一般的な非線形関数は 00:38:11 - 00:38:14: 双曲線正接 00:38:14 - 00:38:16: 物流と密接に関係している 00:38:16 - 00:38:17: 関数であり、非常に 00:38:18 - 00:38:20: 対称的な方法 00:38:20 - 00:38:22: ランダムに選択するとわかります 00:38:22 - 00:38:24: 重みと例を見てください 00:38:24 - 00:38:27: その双曲線正接曲線はちょうど見える 00:38:27 - 00:38:29: ロジスティック曲線のように 00:38:29 - 00:38:31: -1 から -1 の間で変化することを除いて 00:38:31 - 00:38:34: プラス1。 00:38:34 - 00:38:35: 以前にやろうとしたのと同じように 00:38:35 - 00:38:37: 出力を使用できる線形関数 00:38:37 - 00:38:40: あるレイヤーを別のレイヤーへの入力として 00:38:41 - 00:38:43: この方法でそれらを積み重ねることができます 00:38:43 - 00:38:45: 同じ方法で隠しノードを追加することもできます 00:38:45 - 00:38:47: 前にやった 00:38:47 - 00:38:49: ここでは、2 つの隠しノードを表示します。 00:38:49 - 00:38:51: 図をシンプルにするために 00:38:51 - 00:38:56: そこに好きなだけ想像できる 00:38:56 - 00:38:58: これにランダムな重みを選択すると 00:38:58 - 00:39:00: ネットワークを開き、見つけた出力を見てください 00:39:00 - 00:39:03: 物事が面白くなる 00:39:03 - 00:39:06: 私たちは線形の領域を離れました 00:39:06 - 00:39:08: 双曲線正接関数 00:39:08 - 00:39:10: 非線形です 00:39:10 - 00:39:12: それらを一緒に追加すると、 00:39:12 - 00:39:14: 必ずしも見えないもの 00:39:14 - 00:39:17: 双曲線正接のように 00:39:17 - 00:39:18: 曲線を取得します 00:39:19 - 00:39:22: 山と谷、そし​​てもっと広い 00:39:22 - 00:39:24: これまでに見たことのないさまざまな行動 00:39:24 - 00:39:28: 単層ネットワークで 00:39:28 - 00:39:29: 次のステップに進み、追加することができます 00:39:30 - 00:39:32: 私たちのネットワークへの別のレイヤー 00:39:33 - 00:39:35: 間に一連の隠しノードがあります 00:39:36 - 00:39:38: レイヤー 1 とレイヤー 2 および別のセットの 00:39:38 - 00:39:41: レイヤ 2 とレイヤの間の非表示ノード 00:39:43 - 00:39:46: ここでも、すべてに対してランダムな値を選択します 00:39:46 - 00:39:48: 重みとの種類を見てください 00:39:48 - 00:39:50: 生成できる曲線 00:39:50 - 00:39:54: 再びウィグルとピークが見えます 00:39:54 - 00:39:58: 谷と幅広い形状の選択 00:39:58 - 00:39:59: 違いがわかりにくい場合 00:39:59 - 00:40:01: これらの曲線と曲線の間 00:40:01 - 00:40:03: 2 層ネットワークによって生成される 00:40:03 - 00:40:05: それは彼らが数学的に 00:40:07 - 00:40:08: ここでは証明しようとはしませんが、 00:40:08 - 00:40:10: 素晴らしい結果があります 00:40:10 - 00:40:13: これは、作成できる任意の曲線を示しています 00:40:13 - 00:40:14: 多層を使ってメニューを学ぶ 00:40:14 - 00:40:17: 2 を使用して作成することもできるネットワーク 00:40:17 - 00:40:20: レイヤーネットワークが十分にある限り 00:40:20 - 00:40:23: 隠しノード 00:40:23 - 00:40:24: 多くの層を持つことの利点 00:40:24 - 00:40:26: ネットワークはあなたが作成するのを助けることができるということです 00:40:26 - 00:40:28: より複雑な曲線 00:40:28 - 00:40:30: より少ない合計ノードを使用する 00:40:30 - 00:40:32: たとえば、2 層ネットワークでは、 00:40:32 - 00:40:35: 100個の隠しノードを使用 00:40:35 - 00:40:37: 3層ネットワークでは、11を使用しました 00:40:37 - 00:40:40: 最初のレイヤーと 9 つの非表示ノード 00:40:40 - 00:40:42: 2 層目の隠しノード 00:40:42 - 00:40:44: それは全数のわずか 5 分の 1 です 00:40:44 - 00:40:46: 2層ネットワークで使用しましたが、 00:40:46 - 00:40:51: それが生成する曲線は、同様の豊かさを示しています 00:40:51 - 00:40:53: これらの派手な波線を使用して 00:40:53 - 00:40:55: で行ったように分類子を作成します 00:40:55 - 00:40:58: ロジスティック回帰 00:40:58 - 00:41:01: ここではカットオフとしてゼロラインを使用します 00:41:01 - 00:41:03: 曲線が交差するすべての場所 00:41:03 - 00:41:06: ゼロライン 仕切りがあります 00:41:06 - 00:41:08: 曲線が位置するすべての領域で 00:41:08 - 00:41:10: ゼロラインより上をこれと呼びます 00:46:11 - 00:46:13: カテゴリーa 00:41:12 - 00:41:13: 同様に、曲線があるところならどこでも 00:41:13 - 00:41:18: ゼロ線の下にはカテゴリ b があります 00:41:18 - 00:41:20: これらの非線形を区別するもの 00:41:20 - 00:41:22: 線形分類器からの分類器は、 00:41:22 - 00:41:25: スペースを2つに分割するだけではありません 00:41:27 - 00:41:29: この例では、a と b の領域は 00:41:31 - 00:41:33: を中心に分類器を構築する 00:41:33 - 00:41:35: 多層非線形ネットワークはそれを与えます 00:41:35 - 00:41:37: より多くの柔軟性 00:41:37 - 00:41:40: より複雑な関係を学習できる 00:41:40 - 00:41:42: この特定の組み合わせ 00:41:42 - 00:41:43: 多層ネットワーク 00:41:43 - 00:41:45: 双曲線正接非線形 00:41:45 - 00:41:49: 関数には独自の名前があります 00:41:51 - 00:41:53: あなたが1つしか持っていないときに推測できるように 00:41:53 - 00:41:55: パーセプトロンと呼ばれるレイヤーと 00:41:55 - 00:41:57: その場合、追加する必要さえありません 00:41:57 - 00:41:59: それを機能させるための非線形関数 00:41:59 - 00:42:02: 関数は依然として x 軸を横切ります 00:42:02 - 00:42:05: 全く同じ場所で 00:42:05 - 00:42:08: これは完全なネットワーク図です 00:42:08 - 00:42:11: 多層パーセプトロン 00:42:11 - 00:42:13: この表現は役に立ちます。 00:42:13 - 00:42:16: それはすべての単一の操作を明示的にします 00:42:16 - 00:42:18: ただし、視覚的にも雑然としています 00:42:18 - 00:42:20: 一緒に働くのは難しい 00:42:20 - 00:42:22: このため、ほとんどの場合 00:42:22 - 00:42:25: 円に見えるように簡略化 00:42:25 - 00:42:27: 線でつながれた 00:42:27 - 00:42:30: これは、私たちが見たすべての操作を意味します 00:42:30 - 00:42:31: 前の図に 00:42:32 - 00:42:33: 接続線にはそれぞれ重みがあります 00:42:33 - 00:42:35: それらに関連する 00:42:35 - 00:42:37: 隠しノードと出力ノードが実行されます 00:42:37 - 00:42:39: 加算と非線形スカッシング 00:42:39 - 00:42:41: しかし、この図ではすべてが 00:42:44 - 00:42:46: 実際、バイアスノード 00:42:46 - 00:42:47: 常に値を持つノード 00:42:47 - 00:42:49: 各レイヤーに 1 つ 00:42:49 - 00:42:52: わかりやすくするために省略されています 00:42:52 - 00:42:56: したがって、元のネットワークはこれに縮小されます 00:42:56 - 00:42:57: バイアス ノードはまだ存在し、 00:42:57 - 00:42:59: 彼らの操作はまったく変わっていません 00:42:59 - 00:43:01: しかし、きれいにするためにそれらを除外します 00:43:04 - 00:43:06: それぞれから 2 つの非表示ノードのみを表示します 00:43:06 - 00:43:08: ここにレイヤーを入れますが、実際にはかなり使用しました 00:43:08 - 00:43:10: さらにいくつかの 00:43:10 - 00:43:12: 図をきれいにするためにもう一度 00:43:12 - 00:43:14: 多くの場合、すべてを表示するわけではありません。 00:43:14 - 00:43:17: いくつかの非表示ノードと 00:43:17 - 00:43:20: 残りは暗示されます 00:43:20 - 00:43:22: これが一般的な図です 00:43:22 - 00:43:24: 三層用 00:43:24 - 00:43:28: 単一入力単一出力ネットワーク 00:43:28 - 00:43:30: の数を指定すると、 00:43:30 - 00:43:32: 出力数を入力し、 00:43:32 - 00:43:33: レイヤー数 00:43:33 - 00:43:35: およびそれぞれの隠しノードの数 00:43:36 - 00:43:38: 次に、ニューラルを完全に定義できます 00:43:41 - 00:43:44: 2 つの入力も見ることができます。 00:43:44 - 00:43:47: 単一出力ニューラル ネットワーク 00:43:47 - 00:43:49: 入力が2つあるから 00:43:49 - 00:43:51: その出力をプロットすると、 00:43:51 - 00:43:54: 三次元曲線 00:43:54 - 00:43:56: 再びランダムな重みを選択できます 00:43:56 - 00:43:58: 曲線を生成して、どのタイプの 00:43:58 - 00:43:59: このニューラル ネットワークの機能 00:43:59 - 00:44:02: 代表できる 00:44:02 - 00:44:04: これは本当に楽しいところです 00:44:04 - 00:44:07: 複数の入力を持つ複数のレイヤー 00:44:07 - 00:44:09: および非線形活性化関数 00:44:10 - 00:44:11: ニューラルネットワークは本当にクレイジーになる可能性があります 00:44:13 - 00:44:15: 彼らと言うのはほぼ正しい 00:44:15 - 00:44:18: 好きな形を作ることができます 00:44:18 - 00:44:19: ちょっと時間を取ってみる価値はあります 00:44:19 - 00:44:22: その制限が何であるかに注意してください 00:44:22 - 00:44:25: すべての関数が 00:44:25 - 00:44:27: プラスマイナス1の間に入る 00:44:27 - 00:44:31: 濃い赤と濃い緑の領域 00:44:31 - 00:44:33: この床と天井にキスをする 00:44:33 - 00:44:36: 範囲ですが、これを超えることはありません 00:44:36 - 00:44:38: ニューラルネットワークは適合できません 00:44:38 - 00:44:39: これの外に拡張された機能 00:44:42 - 00:44:44: また、これらの機能はすべて 00:44:44 - 00:44:46: 滑らかになりやすい 00:44:46 - 00:44:48: それらには丘と窪みと谷があり、 00:44:48 - 00:44:51: ウィグルとポイントとウェル 00:44:51 - 00:44:54: しかし、それはすべて比較的スムーズに起こります 00:44:54 - 00:44:56: 関数をたくさんあてはめたい場合 00:44:56 - 00:44:58: ギザギザのジャンプとドロップ このニューラル 00:44:58 - 00:45:00: ネットワークは非常にできないかもしれません 00:45:00 - 00:45:03: よくやった 00:45:03 - 00:45:06: ただし、これら2つの制限は別として 00:45:06 - 00:45:07: これが持つ多彩な機能 00:45:07 - 00:45:09: ニューラルネットワークが生成できるものはわずかです 00:45:12 - 00:45:15: 単一の出力ニューラルを変更しました 00:45:15 - 00:45:17: ネットワークが分類子になる 00:45:17 - 00:45:19: 多層パーセプトロンを見た 00:45:19 - 00:45:22: これを行う別の方法があります 00:45:22 - 00:45:24: 2出力ニューラルネットワークを使用できます 00:45:26 - 00:45:29: 3 層の出力 00:45:29 - 00:45:30: 1 つの入力 00:45:30 - 00:45:34: このようなニューラルネットワークを出力する 00:45:34 - 00:45:35: 多くのケースがあることがわかります 00:45:36 - 00:45:38: 2 つの曲線が交差する場所 00:45:38 - 00:45:42: 彼らがいくつかの場所で交差する例 00:45:42 - 00:45:45: これを使用して分類子を作成できます 00:45:45 - 00:45:48: 1つの出力がより大きい場合 00:45:49 - 00:45:51: 1つのカテゴリを意味することができます 00:45:51 - 00:45:54: 別のものを支配する 00:45:55 - 00:45:57: 2 つの出力関数が交差する場所 00:45:57 - 00:46:00: 垂直線を引くことができます 00:46:00 - 00:46:02: これにより、入力スペースが切り刻まれます 00:46:03 - 00:46:05: 各地域で 1 つの出力が大きい 00:46:05 - 00:46:07: 他より 00:46:07 - 00:46:09: たとえば、青い線がどこにあるか 00:46:09 - 00:46:11: より大きいと割り当てることができます 00:46:13 - 00:46:15: 桃色の線があるところ 00:46:15 - 00:46:19: 大きい地域はカテゴリーb 00:46:19 - 00:46:21: 多層パーセプトロンのように 00:46:21 - 00:46:23: これにより、スペースをより細かく切り刻むことができます 00:46:23 - 00:46:25: 線形分類器よりも複雑な方法 00:46:27 - 00:46:29: カテゴリ a とカテゴリ b の領域は、 00:46:29 - 00:46:35: 勝手に混ぜ合わせる 00:46:35 - 00:46:37: 出力が 2 つしかない場合は、 00:46:37 - 00:46:39: このようにすることの利点 00:46:39 - 00:46:41: 1つだけの多層パーセプトロン 00:46:41 - 00:46:43: 出力はまったく明確ではありません 00:46:45 - 00:46:47: 3 つ以上の出力に移動すると、 00:46:47 - 00:46:49: 物語の変化 00:46:49 - 00:46:52: これで、3 つの個別の出力があり、 00:46:52 - 00:46:54: 3つの別々の出力 00:46:54 - 00:46:57: 同じ基準を使用できる関数 00:46:57 - 00:47:00: 関数を最大にする 00:47:00 - 00:47:03: 値はカテゴリを決定します 00:47:03 - 00:47:06: 入力スペースを切り刻むことから始めます 00:47:06 - 00:47:08: どの機能が 00:47:08 - 00:47:10: 最高値 00:47:10 - 00:47:12: 各機能は、 00:47:13 - 00:47:15: 最初の関数を割り当てます 00:47:15 - 00:47:19: カテゴリaになり、すべての地域にラベルを付ける 00:47:19 - 00:47:21: 上にあるところ 00:47:21 - 00:47:23: カテゴリーaとして 00:47:23 - 00:47:24: 次に、2 番目で同じことができます 00:47:26 - 00:47:28: そして私たちの3番目 00:47:28 - 00:47:30: このトリックを使用すると、私たちはもはや 00:47:30 - 00:47:33: 2つのカテゴリに限定 00:47:33 - 00:47:35: 必要な数の出力ノードを作成できます 00:47:36 - 00:47:38: 入力スペースを学習して切り刻む 00:47:38 - 00:47:41: その多くのカテゴリに 00:47:41 - 00:47:43: 注目に値するのは、 00:47:43 - 00:47:46: カテゴリは非常に最高ではないかもしれません 00:47:47 - 00:47:49: 場合によっては、 00:47:49 - 00:47:51: とても近い 00:47:51 - 00:47:53: 1 つのカテゴリが勝者として宣言されます 00:47:53 - 00:47:55: しかし、次の次点者はほぼ同じかもしれません 00:47:58 - 00:48:00: 延長できない理由はない 00:48:00 - 00:48:02: 2 つ以上の入力に対するこのアプローチ 00:48:02 - 00:48:04: 残念ながら、それは難しくなります 00:48:06 - 00:48:07: これらのいくつかを想像する必要があります 00:48:07 - 00:48:10: それぞれの上にゴツゴツした景観プロット 00:48:10 - 00:48:12: 一部の地域では、1 つが大きくなります。 00:48:12 - 00:48:14: 他のものより 00:48:14 - 00:48:17: そのカテゴリが関連付けられたその地域で 00:48:17 - 00:48:20: その出力で支配的になります 00:48:20 - 00:48:22: 何の定性的な感覚を得るために 00:48:22 - 00:48:25: これらの地域はあなたができるように見えるかもしれません 00:48:25 - 00:48:27: 上に投影された等高線を見てください 00:48:27 - 00:48:29: これらの区画の床 00:48:30 - 00:48:32: 多層パーセプトロンの場合 00:48:32 - 00:48:35: これらのプロットはすべて y でスライスされています 00:48:35 - 00:48:37: ゼロレベルに等しい 00:48:38 - 00:48:39: つまり、床を見れば 00:48:40 - 00:48:43: 緑の色合いのすべてが 00:48:43 - 00:48:45: 1 つのカテゴリとあらゆる色合いのすべて 00:48:45 - 00:48:49: 赤の他のカテゴリになります 00:48:49 - 00:48:50: 最初に飛び出すのは 00:48:50 - 00:48:52: これらのカテゴリーの境界はどれだけ多様か 00:48:52 - 00:48:54: 彼らです 00:48:54 - 00:48:56: それらのいくつかはほぼ直線です 00:48:56 - 00:48:59: 微振動ではあるが 00:48:59 - 00:49:01: それらのいくつかはよりワイルドな曲がりを持ち、 00:49:01 - 00:49:03: 曲線とそれらのいくつかは入力を切り刻みます 00:49:03 - 00:49:05: 切り離されたいくつかにスペースアップ 00:49:05 - 00:49:07: 緑と赤の領域 00:49:07 - 00:49:09: 時々小さな島があります 00:49:09 - 00:49:12: 真ん中の緑または赤の島 00:49:12 - 00:49:15: 別の色の海 00:49:15 - 00:49:17: さまざまな境界が 00:49:17 - 00:49:21: これは非常に強力な分類ツールです 00:49:21 - 00:49:23: 私たちが見ることができる1つの制限 00:49:23 - 00:49:25: このように、境界は 00:49:25 - 00:49:28: すべて滑らかに湾曲 00:49:28 - 00:49:30: 時にはそれらの曲線は非常に鋭い 00:49:30 - 00:49:33: でも普段は優しく丸みを帯びている 00:49:33 - 00:49:36: これは、自然な選好を示しています。 00:49:36 - 00:49:38: 双曲線正接を持つニューラル ネットワーク 00:50:02 - 00:50:04: 活性化関数 00:49:40 - 00:49:43: 滑らかな機能と滑らかな 00:49:44 - 00:49:46: この調査の目標は、取得することでした 00:49:46 - 00:49:48: どのような種類のものかについての直感的な感覚 00:49:48 - 00:49:50: 関数とカテゴリ境界ニューラル 00:49:50 - 00:49:52: ネットワークは、使用時に学習できます 00:49:52 - 00:49:55: 回帰または分類 00:49:55 - 00:49:57: 私たちは彼らの力と彼らの両方を見てきました 00:49:57 - 00:50:00: 滑らかさに対する明確な好み 00:50:00 - 00:50:02: 2 つの非線形のみを見てきました。 00:50:04 - 00:50:06: ロジスティック正接と双曲線タンジェントの両方 00:50:06 - 00:50:09: これらは非常に密接に関連しています 00:50:09 - 00:50:10: 他にもたくさんあります 00:50:10 - 00:50:12: 彼らはシャープを捉えるのが少し上手です 00:50:14 - 00:50:16: 調整された線形単位または relu の 00:50:17 - 00:50:19: であるサーフェスと境界を生成します。 00:50:19 - 00:50:21: かなりシャープ 00:50:21 - 00:50:23: しかし、私の望みはあなたの直感に種をまくことでした 00:50:23 - 00:50:25: 実際に何が起こるかのいくつかの例で 00:50:25 - 00:50:27: ボンネットの下で起こっている 00:50:27 - 00:50:29: ニューラルネットワークを訓練するとき 00:50:29 - 00:50:31: ここに最も重要なことがあります 00:50:33 - 00:50:35: ニューラルネットワークは機能を学習し、 00:50:35 - 00:50:37: 回帰に使用する 00:50:37 - 00:50:39: 一部のアクティベーション関数は、 00:50:39 - 00:50:41: 出力範囲が一致する限り 00:50:41 - 00:50:43: 出力の期待される範囲 00:50:43 - 00:50:46: 問題ない 00:50:46 - 00:50:48: 2 番目のニューラル ネットワークは、ほとんどの場合 00:50:48 - 00:50:50: 分類に使用 00:50:50 - 00:50:53: 彼らはそれがかなり上手であることを証明しました 00:50:54 - 00:50:56: ニューラルネットワークはスムーズに作成する傾向があります 00:50:56 - 00:50:59: 回帰に使用する場合の関数 00:50:59 - 00:51:01: 使用時にカテゴリの境界を滑らかにする 00:51:01 - 00:51:04: 分類用 00:51:06 - 00:51:08: 完全に接続されたバニラ ニューラルの場合 00:51:09 - 00:51:11: 2 層ネットワークは任意の 00:51:11 - 00:51:15: ディープネットワークが学習できる関数 00:51:15 - 00:51:17: しかし、深いネットワークができるかもしれません 00:51:17 - 00:51:21: より少ないノードで学習する 00:51:21 - 00:51:23: 5番目に、入力が 00:51:23 - 00:51:26: 正規化されている、つまり平均値が近い 00:51:26 - 00:51:28: ゼロおよびそれ以下の標準偏差 03:09:01 - 03:09:02: 1つより 00:51:30 - 00:51:31: これにより、ニューラル ネットワークがさらに 00:51:31 - 00:51:35: 彼らの関係に敏感 00:51:35 - 00:51:36: これがあなたが飛び込むときに役立つことを願っています 00:51:36 - 00:51:38: あなたの次のプロジェクト 00:51:38 - 00:51:40: 幸せな建物 00:51:40 - 00:51:42: 畳み込みニューラルへようこそ 00:51:42 - 00:51:46: ネットワークの仕事 00:51:46 - 00:51:48: 畳み込みニューラル ネットワークまたは 00:51:48 - 00:51:51: convnets または cnns 00:51:51 - 00:51:53: かなりクールなことをすることができます 00:51:53 - 00:51:55: あなたが彼らにたくさんの写真を与えたら 00:51:55 - 00:51:57: たとえば、彼らはいくつかのことを学びます 00:51:57 - 00:52:00: エッジやドットブライトなどの基本的なもの 00:52:00 - 00:52:02: スポット ダークスポット 00:52:02 - 00:52:04: そして、それらは多層であるため 00:52:06 - 00:52:07: それが最初に学んだことです 00:52:07 - 00:52:09: レイヤー 2 番目のレイヤーは、 00:52:09 - 00:52:13: 目鼻口として認識可能です 00:52:13 - 00:52:14: そして3番目のレイヤーは見えるものです 00:52:14 - 00:52:16: 好きな顔 00:52:16 - 00:52:18: 同様に、たくさんの餌を与えると 00:52:18 - 00:52:21: 車の画像を最下層まで 00:52:21 - 00:52:22: 次のようなものが再び得られます 00:52:23 - 00:52:25: そしてもっと高いところにあるものを見てください 00:52:25 - 00:52:27: タイヤとホイールハウスのように見える 00:52:28 - 00:52:30: そしてそれより上のレベルでは 00:52:30 - 00:52:35: 車として明確に識別できる 00:52:35 - 00:52:38: cnn's はビデオ ゲームのプレイ方法を学習することもできます 00:52:38 - 00:52:41: としてピクセルのパターンを形成することによって 00:52:41 - 00:52:43: それらは画面に表示されます 00:52:43 - 00:52:45: 最善の行動は何かを学び、 00:52:46 - 00:52:48: 特定のパターンを見たときに取る 00:52:48 - 00:52:51: CNN は、ビデオ ゲームをプレイすることを学ぶことができます。 00:52:51 - 00:52:53: いくつかのケースは、これまでの人間よりもはるかに優れています 00:52:56 - 00:52:59: それだけでなく、 00:52:59 - 00:53:02: cnns を監視するように設定します 00:53:02 - 00:53:03: ユーチューブの動画 00:53:03 - 00:53:06: オブジェクトを学ぶことができます 00:53:06 - 00:53:08: 再びパターンを選び出し、 00:53:08 - 00:53:11: 他の人は握りの種類を学ぶことができます 00:53:11 - 00:53:13: これはその後、他のいくつかと組み合わされます 00:53:13 - 00:53:15: 実行ソフトウェア 00:53:15 - 00:53:18: ロボットに料理を学ばせることができる 00:53:18 - 00:53:21: ユーチューブを見るだけで 00:53:22 - 00:53:25: したがって、CNN が強力であることは間違いありません 00:53:25 - 00:53:27: 通常、それらについて話すときはそうします 00:53:28 - 00:53:29: 私たちが話すのと同じように 00:53:30 - 00:53:33: でも彼らは魔法じゃない 彼らがすることは 00:53:33 - 00:53:35: いくつかのかなり基本的なアイデアに基づいて 00:53:35 - 00:53:38: 巧妙な方法で適用された 00:53:38 - 00:53:40: これらを説明するために 00:53:40 - 00:53:43: 非常に単純なおもちゃの畳み込みニューラル 00:53:44 - 00:53:45: これは何をしますか 00:53:45 - 00:53:48: 二次元の画像を取り込みます 00:53:48 - 00:53:51: と考えることができるピクセルの配列 00:53:51 - 00:53:53: チェッカーボードと各正方形 00:53:53 - 00:53:56: チェッカーボードは明るいか暗いかのどちらかです 00:53:56 - 00:53:58: そしてそれを見て、cnn 00:53:58 - 00:54:01: x の画像かどうかを決定します 00:54:01 - 00:54:03: または o の 00:54:05 - 00:54:08: その上に、次の画像が表示されます 00:54:08 - 00:54:11: 黒地に白のピクセルで描かれた x 00:54:11 - 00:54:13: 背景と特定したい 00:54:13 - 00:54:15: これを×として 00:54:15 - 00:54:17: そして、o 00:54:17 - 00:54:20: oとして識別したい 00:54:20 - 00:54:23: cnn がこれを行う方法 00:54:23 - 00:54:26: ええと、いくつかのステップがあります 00:54:26 - 00:54:29: 何が難しいのか 00:54:29 - 00:54:31: xがまったく同じではないということです 00:54:32 - 00:54:35: x または o をシフトすることができます。 00:54:35 - 00:54:37: 大きくも小さくも回転できます 00:54:38 - 00:54:39: より厚くまたはより薄く 00:54:39 - 00:54:41: どの場合でも、私たちはまだしたいと思っています 00:54:41 - 00:54:45: x か o かを特定する 00:54:45 - 00:54:47: これが難しい理由は 00:54:47 - 00:54:49: 私たちのためだから 00:54:49 - 00:54:51: この 2 つのことが 00:54:51 - 00:54:53: 同様のことは簡単です。 00:54:53 - 00:54:54: それについて考えなければならない 00:54:54 - 00:54:58: コンピューターにとって、それは非常に難しい 00:54:58 - 00:54:59: コンピュータが見ているもの 00:54:59 - 00:55:01: これはチェッカーボードですか 02:45:08 - 02:45:10: 二次元配列 00:55:03 - 00:55:05: 数の集まりとして 00:55:05 - 00:55:07: 1 とマイナス 1 は明るい 00:55:07 - 00:55:11: ピクセル マイナス 1 は黒いピクセル 00:55:11 - 00:55:13: そしてそれができることは、ピクセルを通過することです 00:55:13 - 00:55:15: ピクセルごとに一致するかどうかを比較します 00:55:15 - 00:55:16: か否か 00:55:16 - 00:55:19: だからコンピュータにコンピュータに 00:55:19 - 00:55:21: 画素数が多いように見える 00:55:21 - 00:55:23: 一致しますが、一部は一致しません 00:55:23 - 00:55:24: 実際にそうでないものはほとんどありません 00:55:24 - 00:55:26: これを見て「ああ」と言うかもしれません 00:55:26 - 00:55:28: これらが正しいかどうかはよくわかりません 00:55:31 - 00:55:32: コンピューターが 00:55:32 - 00:55:34: 文字通り私は言うだろう 00:55:34 - 00:55:39: 不確かなので、それらが等しいとは言えません 00:55:39 - 00:55:41: 現在、畳み込みのトリックの1つ 00:55:41 - 00:55:44: ニューラル ネットワークの使用は、 00:55:45 - 00:55:47: 全体ではなく 00:55:47 - 00:55:49: したがって、それをより小さなものに分解すると 00:55:49 - 00:55:51: 部品または機能 00:55:51 - 00:55:54: その後、それははるかに明確になります 00:55:54 - 00:55:59: この二つが似ているかどうか 00:55:59 - 00:56:02: これらの小さな機能の例は 00:56:03 - 00:56:05: この場合のミニ画像は 3 つだけです 00:56:05 - 00:56:07: ピクセル×3ピクセル 00:56:07 - 00:56:10: 左側のものは対角線です 00:56:10 - 00:56:13: 左から右に下向きに斜めに 00:56:13 - 00:56:15: 右側も対角線です 00:56:15 - 00:56:17: 他の方向に傾いている 00:56:17 - 00:56:20: 真ん中のはちょっと× 00:56:20 - 00:56:21: これらは大きなものの小さな断片です 00:56:23 - 00:56:26: そして、あなたがあなたなら私たちが通り抜けるのを見ることができます 00:56:26 - 00:56:27: 適切な機能を選択して配置する 00:56:27 - 00:56:30: イメージに合った適切な場所 00:56:32 - 00:56:35: 大丈夫、私たちは断片を持っています 00:56:35 - 00:56:38: 今、一歩を踏み出すために 00:56:38 - 00:56:41: これらを一致させる背後にある数学があります 00:56:41 - 00:56:43: フィルタリングと呼ばれる 00:56:43 - 00:56:46: これが行われる方法は機能です 00:56:46 - 00:56:48: の小さなパッチと並んでいます 00:56:49 - 00:56:52: そして、ピクセルは1つずつ 00:56:54 - 00:56:57: それらは互いに乗算されます 00:56:57 - 00:56:59: そして、それを合計して、で割ります 00:56:59 - 00:57:02: 総画素数 00:57:02 - 00:57:03: これをステップスルーして理由を確認します 00:57:03 - 00:57:05: あなたが見ることができるこれを行うことは理にかなっています 00:57:05 - 00:57:08: の左上のピクセルから開始 00:57:08 - 00:57:10: 機能パッチと画像パッチの両方 00:57:10 - 00:57:14: 1 を 1 で掛けると 1 になります 00:57:14 - 00:57:16: そして、次のように置くことでそれを追跡できます 00:57:16 - 00:57:18: そのピクセルの位置に 00:57:18 - 00:57:21: 私たちは比較しています 00:57:21 - 00:57:23: 私たちは次のマイナス1回に進みます 00:57:23 - 00:57:26: マイナス1も1 00:57:26 - 00:57:29: そして私たちは歩み続けます 00:57:29 - 00:57:31: ピクセルごと 00:57:31 - 00:57:33: それらすべてを互いに乗算し、 00:57:33 - 00:57:35: 彼らはいつも同じだから 00:57:35 - 00:57:37: 答えはいつも一つ 00:57:37 - 00:57:39: 私たちが終わったら、これらすべてのものを取ります 00:57:39 - 00:57:42: それらを合計して9で割ります 00:57:42 - 00:57:44: そして答えは一つ 00:57:44 - 00:57:46: そのため、どこにあるかを追跡したいと思います 00:57:46 - 00:57:49: その機能は画像にあり、私たちは入れました 00:57:49 - 00:57:51: 機能を配置するときに言う 00:57:51 - 00:57:54: ここでは、1 の一致を取得します 00:57:54 - 00:57:58: それがフィルタリング 00:57:58 - 00:58:02: これで、同じ機能を使用できます 00:58:02 - 00:58:04: 別の位置に移動し、 00:58:04 - 00:58:07: フィルタリングを再度実行し、開始します 00:58:07 - 00:58:08: 同じパターンで最初のピクセル 00:58:08 - 00:58:11: 2 番目のピクセルに一致 00:58:11 - 00:58:13: 3 番目のピクセルが一致しません 00:58:13 - 00:58:16: マイナス 1 かける 1 はマイナス 1 に等しいので、 00:58:16 - 00:58:17: 私たちはそれを記録します 00:58:17 - 00:58:19: 私たちの結果では 00:58:19 - 00:58:20: そして私たちはそれをやり遂げます 00:58:20 - 00:58:22: 残りの画像パッチ 00:58:22 - 00:58:23: 完了したら、次のことがわかります。 00:58:23 - 00:58:25: 今回は2マイナス1 00:58:25 - 00:58:28: 合計するすべてのピクセルを合計します 00:58:28 - 00:58:30: 五分九九 00:58:30 - 00:58:32: 5 点が得られるので、これは 00:58:32 - 00:58:34: 私たちのものとは非常に異なります 00:58:34 - 00:58:37: その中に 0.55 を記録できます 00:58:37 - 00:58:41: 発生した場所 00:58:41 - 00:58:43: フィルターを移動することで 00:58:43 - 00:58:45: 画像のさまざまな場所 00:58:45 - 00:58:47: 実際には異なる値を見つけます 00:58:47 - 00:58:51: フィルタがどの程度一致するか、またはどの程度一致するか 00:58:51 - 00:58:53: その機能はその場所で表されます 00:58:54 - 00:58:56: これが地図になります 00:58:56 - 00:59:00: 機能が発生する場所 00:59:00 - 00:59:03: 可能な限りすべての場所に移動することによって 00:59:04 - 00:59:06: 畳み込みを行います 00:59:06 - 00:59:09: それはただの繰り返し適用です 00:59:09 - 00:59:11: この機能 このフィルター 何度も 00:59:13 - 00:59:15: そして私たちが得るものは素敵です 00:59:15 - 00:59:18: この場所の全体像をマッピングします 00:59:18 - 00:59:20: 機能が発生する 00:59:20 - 00:59:22: これを見ると、これは理にかなっています 00:59:22 - 00:59:24: 特徴は斜線斜め 00:59:24 - 00:59:26: 左から右へ 00:59:26 - 00:59:27: 一致する 00:59:28 - 00:59:30: の左下から右への対角線 00:59:30 - 00:59:33: x だから、フィルタリングされたものを見ると 00:59:33 - 00:59:35: 画像は、すべての高 00:59:35 - 00:59:39: 数字の 1 と .77 は問題ありません 00:59:39 - 00:59:41: その対角線に沿って 00:59:42 - 00:59:43: その機能 00:59:43 - 00:59:45: その対角線に沿ってはるかによく一致します 00:59:45 - 00:59:51: 画像の他の場所よりも 00:59:51 - 00:59:53: ここで簡略表記を使用するには 00:59:53 - 00:59:55: その中に丸を入れて少し×をする 00:59:55 - 00:59:57: 畳み込みを表す 00:59:57 - 01:00:00: すべての可能な一致を試す行為 01:00:00 - 01:00:03: 他の機能でもそれを繰り返します 01:00:03 - 01:00:06: x フィルターを使用してそれを繰り返すことができます 01:00:06 - 01:00:08: 真ん中と上向きの傾斜 01:00:08 - 01:00:10: 下の斜めの線 01:00:10 - 01:00:13: そして、それぞれの場合で、取得したマップ 01:00:13 - 01:00:15: その機能が発生する場所 01:00:15 - 01:00:17: 私たちが期待するものと一致しています 01:00:17 - 01:00:19: x と 01:00:19 - 01:00:25: 私たちの特徴が一致する場所について 01:00:26 - 01:00:28: 画像を畳み込む行為 01:00:28 - 01:00:30: たくさんのフィルターを使って 01:00:31 - 01:00:35: フィルタリングされた画像のスタックを作成する 01:00:35 - 01:00:39: 畳み込みレイヤーと呼びますか 01:00:39 - 01:00:41: それは操作であるため、レイヤー 01:00:41 - 01:00:44: これから示すように、他の人と積み重ねることができます 01:00:44 - 01:00:49: すぐに 01:00:49 - 01:00:52: 畳み込みでは、1つの画像がスタックになります 01:00:52 - 01:00:53: フィルタリングされた画像の多くを取得します 01:00:54 - 01:00:58: フィルタがあるため、画像を除外しました 01:00:58 - 01:01:01: 畳み込み層は1つのトリックです 01:01:01 - 01:01:03: 我々は持っています 01:01:03 - 01:01:05: 次の大きなトリックは 01:01:05 - 01:01:07: プーリングと呼ばれる 01:01:07 - 01:01:10: これは、画像スタックを縮小する方法です 01:01:10 - 01:01:11: これはとても簡単です 01:01:12 - 01:01:14: 通常は 2 のウィンドウ サイズから始めます 01:01:14 - 01:01:17: 2 ピクセル単位または 3 × 3 ピクセル単位 01:01:17 - 01:01:20: 歩幅は通常 2 ピクセルです 01:01:20 - 01:01:22: これらの作業を最もよく練習する 01:01:22 - 01:01:25: そして、その窓を取り、それを歩きます 01:01:25 - 01:01:28: フィルタリングされた各 01:01:29 - 01:01:31: 各ウィンドウから最大値を取ります 01:01:33 - 01:01:35: これを説明するために、私たちは私たちから始めます 01:01:35 - 01:01:37: 最初のフィルター処理された画像 01:01:37 - 01:01:39: 2 ピクセル x 2 ピクセルのウィンドウがあります 01:01:39 - 01:01:41: そのピクセル内の最大値は 01:01:42 - 01:01:45: それを追跡してから 01:01:45 - 01:01:47: 2 ピクセルの歩幅 2 ピクセル移動 01:01:48 - 01:01:49: 右に繰り返します 01:01:50 - 01:01:51: そのウィンドウ外の最大値は 01:01:53 - 01:01:56: など 0.55 01:01:56 - 01:01:57: そして最後にたどり着いたとき、私たちはそうしなければなりません 01:01:57 - 01:01:59: 私たちが持っているクリエイティブ 01:01:59 - 01:02:01: すべてのピクセルを代表するわけではありません 01:02:01 - 01:02:03: だから私たちはそこにあるものの最大を取ります 01:02:04 - 01:02:05: そして私たちはこれを全世界で続けています 01:02:05 - 01:02:08: 全体像と完成時 01:02:08 - 01:02:11: 最終的には同様のパターンになります 01:02:11 - 01:02:13: でも小さい 01:02:13 - 01:02:16: 私たちはまだ私たちの高い価値がすべてであることがわかります 01:02:16 - 01:02:18: 斜めに 01:02:18 - 01:02:21: ただし、7 x 7 ピクセルの代わりに 01:02:22 - 01:02:23: フィルタリングされた画像には、フォーバイがあります 01:02:23 - 01:02:26: 4 ピクセルの画像なので、半分の大きさです。 01:02:26 - 01:02:29: それは〜についてだった 01:02:29 - 01:02:31: これは非常に理にかなっています 01:02:31 - 01:02:32: もしあなたが想像できるなら 01:02:32 - 01:02:35: 9 x 9 ピクセルの画像から始めます 01:02:35 - 01:02:37: 私たちは9000から始めました 01:02:37 - 01:02:39: それを縮小する9000ピクセルの画像 01:02:40 - 01:02:43: それを扱うのに便利です 01:02:43 - 01:02:45: 小さくします 01:02:45 - 01:02:46: それがする他のこと 01:02:46 - 01:02:50: プーリングはどこでも構いません 01:02:50 - 01:02:53: 最大値が発生するウィンドウ 01:02:53 - 01:02:55: そのため、少し感度が低くなります 01:02:56 - 01:02:57: 配置する 01:02:57 - 01:02:59: これがどのように展開するかというと、 01:02:59 - 01:03:01: あなたが探している 01:03:01 - 01:03:03: 画像の特定の機能 01:03:03 - 01:03:05: 少し左に 少し左に 01:03:05 - 01:03:07: 少し回転させれば 01:03:07 - 01:03:12: それでも拾われる 01:03:12 - 01:03:15: だから私たちはすべてで最大プーリングを行います 01:03:15 - 01:03:17: フィルタリングされた画像のスタック 01:03:17 - 01:03:19: そして、あらゆる場合に取得します 01:03:19 - 01:03:25: フィルタリングされた画像のより小さなセット 01:03:25 - 01:03:28: これが私たちの 2 番目のトリック 3 番目のトリックです 01:03:31 - 01:03:33: これは、数学を維持するための単なるステップです 01:03:33 - 01:03:34: 爆破から 01:03:34 - 01:03:38: ゼロにならないように 01:03:38 - 01:03:40: あなたがここでするすべて 01:03:40 - 01:03:42: あなたのイメージのどこにでもあります 01:03:42 - 01:03:45: 負の値があること 01:04:02 - 01:04:04: ゼロに変更 01:03:47 - 01:03:49: たとえば、過去を振り返ると 01:03:49 - 01:03:51: フィルタリングされた画像 01:03:51 - 01:03:54: 整流線形単位と呼ばれます 01:03:54 - 01:03:57: を行う小さな計算ユニット 01:03:57 - 01:04:00: これは、ステップスルーするだけです 01:04:00 - 01:04:02: どこにでも負の値があります 01:04:04 - 01:04:07: 別の負の値をゼロに変更します 01:04:07 - 01:04:09: あなたが終わる頃には、あなたは非常に 01:04:09 - 01:04:11: 似てる画像 01:04:11 - 01:04:13: 負の値がないことを除いて 01:04:13 - 01:04:15: それらはただのゼロです 01:04:16 - 01:04:18: これをすべての画像で行います 01:04:18 - 01:04:19: そしてこれは別のものになります 01:04:20 - 01:04:21: レイヤーの種類 01:04:21 - 01:04:24: したがって、修正された線形単位層では 01:04:24 - 01:04:26: 画像のスタックはのスタックになります 03:00:40 - 03:00:44: 負の値のない画像 01:04:31 - 01:04:32: さぁ何が楽しいの 魔法が始まる 01:04:32 - 01:04:34: ここで起こる 01:04:34 - 01:04:36: これらの層の畳み込みを取ると 01:04:36 - 01:04:39: 層 調整された線形単位層と 01:04:39 - 01:04:42: レイヤーをプーリングし、それらを積み重ねます 01:04:42 - 01:04:44: 1つの出力が入力になること 01:04:44 - 01:04:46: 次の 01:04:46 - 01:04:48: それぞれに何が入っているかがわかります 01:04:48 - 01:04:50: これらとこれらから何が生まれるか 01:04:50 - 01:04:53: ピクセルの配列のように見えるか、 01:04:53 - 01:04:56: ピクセル配列の配列 01:04:58 - 01:05:00: そのため、それらをうまく積み重ねることができます 01:05:00 - 01:05:02: 1つの出力を使用できます 01:05:02 - 01:05:05: 次の入力とそれらを積み重ねることによって 01:05:05 - 01:05:08: これらの操作を上に構築します 01:05:08 - 01:05:10: お互いの 01:05:10 - 01:05:13: さらに、スタックを繰り返すことができます 01:05:13 - 01:05:15: あなたが想像できる深い積み重ねを行うことができます 01:05:15 - 01:05:18: だけではないサンドイッチを作る 01:05:18 - 01:05:19: パテ一枚とチーズ一枚と 01:05:20 - 01:05:21: レタス1個とトマト1個、丸ごと1個 01:05:21 - 01:05:22: たくさんの 01:05:22 - 01:05:24: 層 ダブル トリッパー トリプル 四重 01:05:24 - 01:05:27: デッカーは何度でも 01:05:29 - 01:05:30: 画像が取得します 01:05:30 - 01:05:32: 通過するにつれてよりフィルタリングされます 02:56:48 - 02:56:50: 畳み込み層 01:05:34 - 01:05:36: 通過するにつれて小さくなります 01:05:36 - 01:05:40: プーリング層 01:05:40 - 01:05:43: 今最終層 01:05:43 - 01:05:45: 私たちのツールボックスでは完全に 01:05:47 - 01:05:51: ここですべての値が投票されます 01:05:51 - 01:05:53: 答えがどうなるかについて 01:05:53 - 01:05:55: だから私たちは今私たちの多くのフィルタリングを取り、 01:05:56 - 01:05:58: 画像のスタックサイズが大幅に縮小されました 01:05:58 - 01:06:00: それらを分解して、並べ替えて配置するだけです 01:06:00 - 01:06:01: それらを 1 つのリストにまとめます。 01:06:01 - 01:06:03: そのように視覚化しやすい 01:06:03 - 01:06:05: そして、それらのそれぞれが1つに接続します 01:06:05 - 01:06:07: 投票する予定の回答の 01:06:09 - 01:06:11: これを x に入れると 01:06:12 - 01:06:14: ここには特定の値があります 01:06:14 - 01:06:16: 高い傾向がある 予測する傾向がある 01:06:16 - 01:06:18: 非常に強く、これは x になります 01:06:18 - 01:06:20: 彼らは多くの票を獲得します 01:06:20 - 01:06:24: x の結果 01:06:25 - 01:06:28: oの写真をフィードするとき 01:06:28 - 01:06:31: 畳み込みニューラル ネットワークに 01:06:31 - 01:06:33: ここには最後に特定の値があります 01:06:33 - 01:06:35: それは非常に高くなる傾向があり、 01:06:35 - 01:06:36: いつになるかを強く予測する 01:06:36 - 01:06:38: 末尾に o を付ける 01:06:38 - 01:06:40: だから彼らは強い体重を得る 01:06:41 - 01:06:44: o カテゴリの場合 01:06:44 - 01:06:46: 今、新しい入力を取得し、取得していないとき 01:06:46 - 01:06:49: それが何であるかを知り、私たちは決定したい 01:06:49 - 01:06:51: これが機能する方法 01:06:51 - 01:06:53: 入力は私たちのすべてを通過します 01:06:56 - 01:06:58: 調整された線形ユニットのプーリング層 01:06:58 - 01:07:00: ここで最後に出てきます 01:07:00 - 01:07:02: 一連の投票 01:07:02 - 01:07:05: そして重みに基づいて 01:07:06 - 01:07:08: 各値が投票する 01:07:08 - 01:07:10: 最後に良い平均票を獲得します 01:07:10 - 01:07:12: この場合、この特定のセット 01:07:12 - 01:07:14: の強さで x の投票を入力します 01:07:17 - 01:07:20: 強度が 0.51 の o 01:07:20 - 01:07:23: ここでは間違いなく x が勝者です 01:07:24 - 01:07:27: ニューラルネットワークはこれを分類します 01:07:27 - 01:07:32: xとして入力 01:07:32 - 01:07:35: したがって、完全に接続されたレイヤーで 01:07:35 - 01:07:37: 特徴値のリスト 01:07:37 - 01:07:40: 投票のリストになります 01:07:41 - 01:07:43: 繰り返しますが、ここで素晴らしいのは、 01:07:44 - 01:07:46: 機能のリストのように見えます 01:07:46 - 01:07:49: 値を使用して、1 つの出力を使用できます。 01:07:49 - 01:07:51: 次の入力用 01:07:51 - 01:07:53: あなたは中間を持つことができます 01:07:53 - 01:07:56: あなたの最終投票ではないカテゴリ 01:07:56 - 01:07:57: または、これらは非表示と呼ばれることもあります 01:07:57 - 01:07:59: ニューラルネットワークのユニットで、次のことができます 01:08:00 - 01:08:01: これらをいくつでも積み重ねてください 01:08:01 - 01:08:03: も欲しい 01:08:03 - 01:08:05: でも最終的にはみんな投票してしまう 01:08:05 - 01:08:07: x または o と、 01:08:07 - 01:08:11: 最多得票 01:08:11 - 01:08:13: したがって、これをすべてまとめると 01:08:15 - 01:08:17: のピクセルの 2 次元配列 01:08:17 - 01:08:20: カテゴリの投票のセットになります 01:08:20 - 01:08:24: 一番端に出て 01:08:24 - 01:08:26: だから私たちが持っているいくつかのものがあります 01:08:26 - 01:08:28: ここで光沢があります 01:08:28 - 01:08:30: あなたは自分自身に尋ねているかもしれません 01:08:30 - 01:08:33: マジックナンバーの由来 01:08:33 - 01:08:35: 私が薄い空気から引き出したもの 01:08:35 - 01:08:38: に機能を含める 01:08:38 - 01:08:42: 便利な畳み込み層 01:08:42 - 01:08:44: 3 ピクセル× 3 ピクセルの対角線 01:08:44 - 01:08:46: x の行 01:08:47 - 01:08:49: 投票の重み 01:08:49 - 01:08:50: 完全に接続されたレイヤーで私は本当に 01:08:50 - 01:08:52: それらがどのようであるかについて私の手を振った 01:08:54 - 01:08:56: これらすべての場合において、答えは 01:08:56 - 01:08:58: 同じように呼び戻されるトリックがあります 01:09:00 - 01:09:02: これらはすべてあなたが持っていない学習です 01:09:02 - 01:09:03: それらを知るために、推測する必要はありません 01:09:05 - 01:09:08: ディープ ニューラル ネットワークはこれを 01:09:10 - 01:09:13: 背後にある基本原則 01:09:13 - 01:09:15: 伝播は、 01:09:16 - 01:09:19: 最終的な答えは、方法を決定するために使用されます 01:09:19 - 01:09:22: ネットワークが調整する 01:09:22 - 01:09:23: と変化 01:09:25 - 01:09:28: x を入れることを知っていれば 01:09:28 - 01:09:32: xに対して0.92票を獲得しました 01:09:32 - 01:09:36: それは0.08の誤差になります 01:09:36 - 01:09:40: そして、oに0.51票を獲得しました 01:09:40 - 01:09:41: 私たちはそれがエラーになることを知っています 01:09:43 - 01:09:45: 実際には 0.51 の誤差です。 01:09:45 - 01:09:48: 0 である必要があります。すべてを合計すると 01:09:48 - 01:09:53: 0.59 になるはずのエラーが表示されます 01:09:54 - 01:09:57: このエラー信号で何が起こるか 01:09:57 - 01:09:59: と呼ばれるプロセスを推進するのに役立ちますか 01:10:09 - 01:10:11: 勾配降下法 01:10:02 - 01:10:03: 他に何かあれば 01:10:05 - 01:10:07: 深い神経にかなり特別なソースです 01:10:07 - 01:10:09: ネットワーク それができる能力です 01:10:11 - 01:10:14: したがって、これらのマジックナンバーのそれぞれについて 01:10:14 - 01:10:16: 特徴ピクセルの各投票重み 01:10:16 - 01:10:19: それらは非常に上下に調整されています 01:10:20 - 01:10:24: エラーがどのように変化するかを確認するには 01:10:24 - 01:10:26: 調整された量 01:10:26 - 01:10:29: 誤差の大きさによって決まる 01:10:29 - 01:10:31: 大きなエラー 彼らはたくさん調整されています 01:10:31 - 01:10:34: ほんの少しだけ小さく、エラーはありません 01:10:34 - 01:10:36: まったく調整されていません 01:10:36 - 01:10:39: 答えて、いじるのやめて 01:10:39 - 01:10:41: それらが調整されているので、あなたは考えることができます 01:10:41 - 01:10:42: そのように 01:10:42 - 01:10:45: ボールを少し左にスライドさせ、 01:10:45 - 01:10:47: 望む丘の少し右へ 01:10:47 - 01:10:49: 進むべき方向を見つけるために 01:10:49 - 01:10:52: 下り坂 あの坂を下りたい 01:10:52 - 01:10:54: その勾配を下って、まさに 01:10:54 - 01:10:56: 底はあなたがいる場所だからです 01:10:56 - 01:10:58: あなたのエラーを最小限に抑えます 01:10:58 - 01:10:59: 幸せな場所 01:10:59 - 01:11:01: 左にスライドさせた後 01:11:01 - 01:11:02: 下り坂を見つける権利 01:11:02 - 01:11:07: 方向とあなたはそこにそれを残します 01:11:07 - 01:11:10: それを何回も何回もやる 01:11:10 - 01:11:13: 繰り返しの多くのステップがすべてを助けます 01:11:13 - 01:11:15: すべての機能にわたるこれらの値 01:11:15 - 01:11:17: そしてすべての重み 01:11:17 - 01:11:20: いわゆるミニマムに落ち着く 01:11:21 - 01:11:23: ええと、その時点でネットワークは 01:11:23 - 01:11:25: 可能な限り実行する 01:11:25 - 01:11:27: それらのいずれかを少し調整します 01:11:27 - 01:11:32: 動作エラーが発生します 01:11:32 - 01:11:34: 現在、ハイパーと呼ばれるものがいくつかあります 01:11:34 - 01:11:37: パラメーターであり、これらはノブです。 01:11:37 - 01:11:39: デザイナーは決定を下すことができます 01:11:39 - 01:11:42: デザイナーはこれらをそうではないものにします 01:11:42 - 01:11:45: 自動学習 01:11:45 - 01:11:47: たたみ込みで 01:11:47 - 01:11:49: 必要な機能の数を把握する 01:11:50 - 01:11:52: それらの機能の大きさはどのくらいですか 01:11:52 - 01:11:55: 側面に多くのピクセル 02:59:36 - 02:59:38: プーリング層で 01:11:57 - 01:12:01: ウィンドウ サイズとウィンドウ ストライド 01:12:01 - 01:12:03: および全結合層での選択 01:12:03 - 01:12:05: 隠れニューロンの数 01:12:05 - 01:12:06: 中間ニューロン 01:12:06 - 01:12:09: これらはすべて、 01:12:09 - 01:12:11: デザイナーが作る 01:12:11 - 01:12:13: 現在いくつかあります 01:12:14 - 01:12:16: うまくいく傾向がある一般的な慣行 01:12:16 - 01:12:18: 他のものよりも優れていますが、ありません 01:12:18 - 01:12:20: 原則的な方法で、難しいことや速いことはありません 01:12:20 - 01:12:23: これを行う正しい方法のルール 01:12:23 - 01:12:26: 実際、多くの進歩が 02:21:52 - 02:21:55: 畳み込みニューラルネットワークは 01:12:28 - 01:12:30: これらの組み合わせを取得する 01:12:30 - 01:12:33: 本当によく 01:12:33 - 01:12:35: 今はこれに加えて 01:12:35 - 01:12:36: 他の決定があります デザイナー 01:12:36 - 01:12:39: 各タイプをいくつ作るか 01:12:39 - 01:12:40: 層の 01:12:40 - 01:12:42: で、どういう順番で 01:12:42 - 01:12:44: そして、本当に出かけるのが好きな人のために 01:12:44 - 01:12:46: 新しいタイプのレールを設計できますか 01:12:46 - 01:12:49: 完全に重ねてそこに滑り込ませる 01:12:49 - 01:12:51: 新しい楽しい行動を得る 01:12:51 - 01:12:53: これらはすべて人というものです 01:12:54 - 01:12:57: と遊んでもっと出ようとする 01:12:57 - 01:12:59: パフォーマンスとアドレススティッキー 01:12:59 - 01:13:06: cnn の問題 01:13:06 - 01:13:07: これらの優れた点は 01:13:07 - 01:13:09: イメージについて語っていた 01:13:10 - 01:13:12: ただし、任意の 2 次元または 01:13:12 - 01:13:13: そんなことしても三、四 01:13:13 - 01:13:15: 次元データ 01:13:15 - 01:13:17: しかし重要なのはあなたの 01:13:19 - 01:13:21: 近くにあるものはより近くに 01:13:21 - 01:13:26: 遠いものより関連のある 01:13:26 - 01:13:28: 私が意味するのは、 01:13:29 - 01:13:32: 2 行のピクセルまたは 2 列のピクセル 01:13:32 - 01:13:33: ピクセルが隣り合っている 01:13:34 - 01:13:36: それらは行よりも密接に関連しています 01:13:36 - 01:13:41: または遠くにある列 01:13:41 - 01:13:43: 今、あなたにできること 01:13:43 - 01:13:46: あなたは音のようなものを取ることができますか 01:13:46 - 01:13:49: そして、あなたはそれを少しの時間に切り刻むことができます 01:13:50 - 01:13:52: そして時間ごとに 01:13:53 - 01:13:54: その直前と右側の時間ステップ 01:13:54 - 01:13:58: 後は時間よりも密接に関連しています 01:13:58 - 01:14:01: 遠い歩みと順番 01:14:03 - 01:14:04: あなたはまたそれを別のものに切り刻むことができます 01:14:04 - 01:14:06: 周波数帯域 01:14:06 - 01:14:10: あなたはそれをスライスすることができますベースミッドレンジトレブル 01:14:10 - 01:14:12: それよりもはるかに最終的に 01:14:12 - 01:14:15: そして再びそれらの周波数帯域 01:14:15 - 01:14:17: より近いものはより多くです 01:14:17 - 01:14:19: 密接に関連している 01:14:20 - 01:14:21: 順番を並べ替えることはできません 01:14:24 - 01:14:26: サウンドでこれを行うと、次のようになります 01:14:26 - 01:14:28: 写真のように見える 画像のように見える 01:14:28 - 01:14:30: convert convolutional を使用できます 01:14:30 - 01:14:33: それらを使用したニューラルネットワーク 01:14:33 - 01:14:36: テキストでも同様のことができます 01:14:37 - 01:14:40: 文中の位置は 01:14:41 - 01:14:42: そして列 01:14:42 - 01:14:45: 辞書の単語です 01:14:47 - 01:14:50: 順序が重要かどうかを議論するのは難しい 01:14:50 - 01:14:52: その順序は重要であり、議論するのは難しい 01:14:52 - 01:14:54: 辞書のその単語はそれです 01:14:54 - 01:14:56: より密接に関連しているものもある 01:14:56 - 01:14:58: 他のすべてのケースで、トリック 01:14:58 - 01:15:02: ここでは、 01:15:02 - 01:15:05: 列全体を上から下へ 01:15:05 - 01:15:07: そのまま左右にスライドさせます 01:15:07 - 01:15:10: すべての単語をキャプチャしますが、 01:15:10 - 01:15:12: 文中のいくつかの位置をキャプチャします 01:15:12 - 01:15:17: 一度に 01:15:17 - 01:15:19: 今、この制限の反対側 03:01:28 - 03:01:31: 畳み込みニューラル ネットワークは、 01:15:22 - 01:15:25: 彼らは本当にキャプチャするように設計されています 01:15:25 - 01:15:28: 局所的な空間パターン 01:15:28 - 01:15:30: 次に一緒にあるものの感覚 01:15:30 - 01:15:33: お互いの隣にかなりの問題があります 01:15:33 - 01:15:35: したがって、データの外観を作成できない場合 01:15:35 - 01:15:36: イメージのように 01:15:36 - 01:15:40: その後、それらはそれほど役に立ちません 01:15:40 - 01:15:42: これの例は 01:15:42 - 01:15:44: 顧客データ 01:15:44 - 01:15:46: 各行がある場合、それは別々です 01:15:47 - 01:15:49: 各列は、 01:15:49 - 01:15:51: その顧客に関する情報 01:15:51 - 01:15:54: 彼らの名前、住所など 01:15:54 - 01:15:57: 彼らは訪問したウェブサイトを購入しました 01:15:58 - 01:16:00: 次に、これはあまり似ていません 01:16:00 - 01:16:02: 写真を撮って並べ替えることができます 01:16:02 - 01:16:05: 列を並べ替え、それらの行を再配置します 01:16:07 - 01:16:09: まだ とは同じ意味です 01:16:09 - 01:16:11: 同様に解釈しやすい 01:16:12 - 01:16:14: 私が画像を撮るとしたら 01:16:14 - 01:16:16: 列を再配置し、再配置します 01:16:16 - 01:16:18: スクランブルになる行 01:16:20 - 01:16:22: 画像が何であったかを言うことは不可能 01:16:22 - 01:16:26: そこで私は多くの情報を失うでしょう 01:16:26 - 01:16:29: 経験則として 01:16:29 - 01:16:31: あなたのデータが後で同じように役立つ場合 01:16:31 - 01:16:33: それぞれの列のいずれかを交換します 01:16:33 - 01:16:36: それ以外は使えません 02:57:22 - 02:57:24: 畳み込みニューラル ネットワーク 01:16:42 - 01:16:45: 持ち帰りはその畳み込みです 01:16:45 - 01:16:46: ニューラルネットワークは見つけるのが得意です 01:16:46 - 01:16:49: パターンとそれらを使用した分類 01:16:50 - 01:16:53: あなたの問題を次のように見せることができれば 01:16:53 - 01:16:56: ネットで猫探し 01:16:56 - 01:16:59: 彼らは巨大な資産です 01:16:59 - 01:17:01: 機械学習のアプリケーションには 01:17:02 - 01:17:03: ここ数年で多くの注目を集めました 01:17:04 - 01:17:06: いくつかの大きなカテゴリがあります 01:17:06 - 01:17:08: 風が1回ありました 01:17:09 - 01:17:11: 写真の識別 01:17:11 - 01:17:13: で猫を見つけるのと同じです。 01:17:13 - 01:17:15: インターネットと可能性のある問題 01:17:15 - 01:17:16: そのように見えるように作られました 01:17:16 - 01:17:19: もう 1 つはシーケンス ツー シーケンスです。 01:17:19 - 01:17:22: 翻訳これは音声からテキストにすることができます 01:17:22 - 01:17:24: またはある言語から別の言語へ 01:17:24 - 01:17:26: 前者のほとんどは 01:17:26 - 01:17:28: 畳み込みニューラル ネットワークのほとんど 01:17:28 - 01:17:31: 後者は繰り返しで行われます 01:17:31 - 01:17:33: ニューラルネットワークええと、特に長い 01:17:33 - 01:17:36: 例を挙げると短期記憶 01:17:36 - 01:17:38: 短期記憶がどのくらい機能するか 01:17:38 - 01:17:40: 何のためにあるのかという問題を考える 01:17:41 - 01:17:42: あなたが 01:17:42 - 01:17:44: 非常に幸運なアパートの住人とあなた 01:17:44 - 01:17:47: 夕食を作るのが大好きな同居人がいる 01:17:47 - 01:17:50: 毎晩、彼は 3 つのうちの 1 つを料理します 01:17:53 - 01:17:55: またはピザ 01:17:55 - 01:17:57: そして、あなたは予測できるようになりたいです 01:17:57 - 01:17:58: あなたが与えられたものを持っているつもりです 01:17:58 - 01:18:00: 残りの予定を立てられるように 01:18:00 - 01:18:02: それに応じて食べる日 01:18:02 - 01:18:04: あなたが何をしようとしているのかを予測するために 01:18:04 - 01:18:05: 夕食に持っています 01:18:05 - 01:18:07: あなたはニューラルネットワークをセットアップしました 01:18:07 - 01:18:10: このニューラル ネットワークへの入力は 01:18:10 - 01:18:12: の日のようなアイテムの束 01:18:12 - 01:18:15: かどうかにかかわらず、その年の月 01:18:15 - 01:18:17: あなたの同居人は遅い会議に参加していませんでした 01:18:17 - 01:18:20: 合理的に影響を与える変数 01:18:20 - 01:18:24: 夕食に何を食べますか 01:18:24 - 01:18:26: ニューラル ネットワークが初めての場合は、 01:18:26 - 01:18:29: 少しお時間をいただくことを強くお勧めします。 01:18:29 - 01:18:31: ニューラルネットワークの仕組みを見るために立ち止まる 01:18:31 - 01:18:34: 作業チュートリアルの下にリンクがあります 01:18:34 - 01:18:35: コメント欄 01:18:35 - 01:18:37: 今はやりたくないなら 01:18:38 - 01:18:39: あなたはまだ慣れていない 01:18:39 - 01:18:41: ニューラルネットワークは次のように考えることができます 01:18:41 - 01:18:43: 投票プロセス 01:18:43 - 01:18:45: ニューラルネットワークでは 01:18:45 - 01:18:47: 複雑な投票が設定されています 01:18:47 - 01:18:49: プロセスとその日のようなすべての入力 01:18:49 - 01:18:51: 年間通算週数と月数 01:18:51 - 01:18:52: その中に 01:18:52 - 01:18:54: そして、あなたはそれを訓練します 01:18:54 - 01:18:56: あなたが何のために持っていたかのあなたの歴史について 01:18:57 - 01:18:58: そしてあなたは学ぶ 01:18:58 - 01:19:00: 何が起こるかを予測する方法 01:19:00 - 01:19:03: 今夜の夕食 01:19:03 - 01:19:05: 問題は、あなたのネットワークが 01:19:05 - 01:19:06: 非常によく働く 01:19:06 - 01:19:09: 入力を慎重に選択したにもかかわらず 01:19:09 - 01:19:11: そして徹底的にトレーニングする 01:19:11 - 01:19:12: あなたはまだより良くなることはできません 01:19:12 - 01:19:15: 夕食のチャンス予測. 01:19:15 - 01:19:17: 複雑な場合によくあるように 01:19:17 - 01:19:19: 役立つ機械学習の問題 01:19:19 - 01:19:21: 下がってください 01:19:21 - 01:19:23: そしてデータを見るだけ 01:19:23 - 01:19:24: そして、あなたがそれをするとき、あなたは気づきます 01:19:25 - 01:19:27: あなたのフラットメイトが作る 01:19:28 - 01:19:32: それから寿司、ワッフル、そしてまたピザ 01:19:32 - 01:19:34: サイクルで 01:19:34 - 01:19:35: 曜日によらない 01:19:35 - 01:19:39: またはそれが定期的なサイクルにある他の何か 01:19:39 - 01:19:41: これを知っているので、新しいニューラルを作ることができます 01:19:43 - 01:19:45: 私たちの新しいものでは、 01:19:45 - 01:19:47: 問題は私たちが夕食に何を食べたかです 01:19:48 - 01:19:50: 夕食にピザを食べたかどうか知っていれば 01:19:50 - 01:19:52: 昨日は寿司 今夜は寿司 01:19:52 - 01:19:54: 昨日のワッフル 今夜とワッフル 01:19:54 - 01:19:56: 昨日のピザ今夜 01:19:56 - 01:19:59: とてもシンプルな投票プロセスになります 01:19:59 - 01:20:02: そして、それはいつでも正しいからです 01:20:02 - 01:20:06: あなたのフラットメイトは信じられないほど一貫しています 01:20:06 - 01:20:09: あなたがたまたま特定の場所にいなくなったら 01:20:09 - 01:20:12: 夜、昨日あなたが外出していたとしましょう 01:20:12 - 01:20:13: あなたは夕食に何があったか知りません 01:20:15 - 01:20:17: どうなるかまだ予測できる 01:20:17 - 01:20:19: 2つを思い出して今夜の夕食に 01:20:19 - 01:20:21: 数日前 01:20:21 - 01:20:24: その時の夕食は何だったか考えてみてください 01:20:24 - 01:20:26: では、何が予測されるでしょうか 01:20:26 - 01:20:27: 昨夜あなたのために 01:20:28 - 01:20:30: そして、その予測を 01:20:30 - 01:20:33: 今夜の予測をするために向きを変える 01:20:36 - 01:20:39: 昨日の実際の情報 01:20:39 - 01:20:40: だけでなく、 01:20:40 - 01:20:43: 私たちの昨日の予測は何でしたか 01:20:43 - 01:20:44: この時点で、 01:20:44 - 01:20:46: 少し寄り道してベクトルについて話す 01:20:46 - 01:20:49: ベクトルは単なるリストの派手な言葉です 01:20:49 - 01:20:51: 私が説明したい場合は、数字の 01:20:51 - 01:20:53: 私ができる特定の日のあなたへの天気 01:20:54 - 01:20:56: 最高は華氏76度です 01:20:56 - 01:20:59: 最低は 43 時速 13 マイルの風 01:20:59 - 01:21:00: 4分の1インチになるでしょう 01:21:00 - 01:21:03: 雨で相対湿度は83 01:21:05 - 01:21:07: それがすべてベクトルである理由です 01:21:07 - 01:21:09: 数字のベクトルリストが便利です 01:21:10 - 01:21:12: コンピュータの母国語です 01:21:12 - 01:21:13: 何かを取得したい場合 01:21:13 - 01:21:15: コンピュータにとって自然なフォーマット 01:21:15 - 01:21:18: 計算する する 操作する する 01:21:18 - 01:21:20: の統計的機械学習リスト 01:21:20 - 01:21:21: 数字は進むべき道です 01:21:21 - 01:21:24: すべてがリストに縮小されます 01:21:24 - 01:21:25: を通過する前の数字 01:21:25 - 01:21:28: ベクトルも持つことができるアルゴリズム 01:21:28 - 01:21:32: 火曜日のような発言 01:21:32 - 01:21:33: この種のコードをエンコードするために 01:21:33 - 01:21:35: 私たちがしていることはリストを作ることです 01:21:35 - 01:21:37: 可能なすべての値の 01:21:38 - 01:21:40: この場合、すべての曜日 01:21:40 - 01:21:42: そして、それぞれに番号を割り当てます 01:21:42 - 01:21:44: そして、それらをすべて設定します 01:21:44 - 01:21:47: であるものを除いてゼロに等しい 01:21:48 - 01:21:51: ええと、この形式はワンホットと呼ばれます 01:21:51 - 01:21:53: エンコーディングとそれを見るのは非常に一般的です 01:21:53 - 01:21:55: 1 つだけのゼロの long ベクトル 01:21:55 - 01:21:57: 要素が一つ 01:21:57 - 01:21:59: 効率が悪いようですが、コンピューターの場合 01:21:59 - 01:22:02: これはそれを摂取するためのはるかに簡単な方法です 01:22:05 - 01:22:08: そのため、1 つのホット ベクトルを作成できます。 01:22:08 - 01:22:10: 私たちが設定した今夜の夕食の予測 01:22:10 - 01:22:13: を除くすべてがゼロに等しい 01:22:13 - 01:22:15: これでそう予測するディナーアイテム 01:22:15 - 01:22:19: 寿司を予測する場合 01:22:19 - 01:22:21: グループ化できるようになりました 01:22:22 - 01:22:24: 入力をグループ化して 01:22:24 - 01:22:26: ベクトルへの出力の個別のリスト 01:22:27 - 01:22:29: そして、それは便利な省略形になります 01:22:29 - 01:22:32: このニューラル ネットワークの説明 01:22:32 - 01:22:34: 昨日の夕食を食べられるように 01:22:35 - 01:22:37: 昨日のベクトルの予測と 01:22:37 - 01:22:41: 今日のベクトルの予測 01:22:41 - 01:22:42: そしてニューラルネットワークはただ 01:22:42 - 01:22:45: のすべての要素間の接続 01:22:45 - 01:22:47: これらの入力ベクトルのそれぞれを 01:29:08 - 01:29:11: 出力ベクトルの要素 01:22:50 - 01:22:53: 私たちの写真を完成させるために、私たちは見せることができます 01:22:53 - 01:22:55: 今日の予測がどのように得られるか 01:22:55 - 01:22:58: 点線をリサイクルした 01:22:58 - 01:23:00: 1日置いてから再利用 01:23:00 - 01:23:01: それは明日 01:23:01 - 01:23:03: そしてそれは私たちの昨日になる 01:23:03 - 01:23:06: 明日の予測 今、私たちはどのように見ることができます 01:23:06 - 01:23:08: 情報が不足していた場合 01:23:08 - 01:23:09: 私たちが2日間町を離れていたとしましょう 01:23:09 - 01:23:11: 数週間、私たちはまだ良い推測をすることができます 01:23:11 - 01:23:13: 夕食をどうするかについて 01:23:14 - 01:23:15: 私たちはただ 01:23:15 - 01:23:17: 新しい情報の部分を無視して、 01:23:17 - 01:23:22: このベクトルを時間内にアンラップまたはアンワインドできます 01:23:22 - 01:23:24: 何らかの情報が得られるまで 01:23:24 - 01:23:28: それに基づいて、それを前方に再生するだけです 01:23:28 - 01:23:30: ラップを外すと、次のようになります 01:23:31 - 01:23:33: 必要なだけ戻ることができます 01:23:33 - 01:23:34: 夕食の内容を確認してから 01:23:34 - 01:23:37: それを前にたどって再生してください 01:23:37 - 01:23:39: 私たちまでの過去2週間のメニュー 01:23:39 - 01:23:42: 今夜の夕食を見つけて 01:23:42 - 01:23:44: これは簡単な例です 01:23:44 - 01:23:47: 再帰型ニューラル ネットワークを示しました。 01:23:47 - 01:23:49: 彼らが私たちのすべてを満たしていないことを示してください 01:23:50 - 01:23:51: 私たちは児童書を書くつもりです 01:23:51 - 01:23:54: それはフォーマットの文を持っています 01:23:54 - 01:23:56: ダグ・ソー・ジェーン・ピリオド 01:23:56 - 01:24:00: ジェーン・ソー・スポット・ピリオド・スポット・ソー・ダグ 01:24:00 - 01:24:04: 期間など 01:24:04 - 01:24:06: だから私たちの辞書は小さいです 01:24:06 - 01:24:08: 言葉ダグ 01:24:10 - 01:24:12: のこぎりと期間 01:24:12 - 01:24:14: そしてニューラルネットワークのタスクは 01:24:14 - 01:24:16: これらを正しい順番に並べて 01:24:16 - 01:24:18: 良い児童書を作る 01:24:18 - 01:24:21: これを行うには、 01:24:21 - 01:24:24: 食品ベクトルと辞書ベクトル 01:24:24 - 01:24:27: ここでも単なる数字のリストです 01:24:27 - 01:24:30: それぞれの単語を表す so for 01:24:31 - 01:24:33: ダグが私が最後に言った言葉だったら 01:24:34 - 01:24:37: 私の新しい情報ベクトルはすべて 01:24:37 - 01:24:40: 掘り出し物の 1 以外のゼロ 01:24:42 - 01:24:43: 同様に、 01:24:43 - 01:24:45: からの予測と私たちの予測 01:24:49 - 01:24:51: トレーニングの後 01:24:51 - 01:24:53: このニューラル ネットワークに何を教えるのか 01:24:53 - 01:24:55: そうすることで、私たちは特定のことを期待するでしょう 01:24:56 - 01:24:59: たとえば、名前が出てくるたびに 01:24:59 - 01:25:01: ジェーン・ダグ・オア・スポット 01:25:01 - 01:25:04: 私たちはそれが賛成票を投じることを期待しています 01:25:04 - 01:25:07: 単語を見たまたは期間 01:25:07 - 01:25:09: それらは私たちの2つの言葉だからです 01:25:09 - 01:25:13: 名前に従うことができる辞書 01:25:13 - 01:25:16: 同様に、名前を予測した場合 01:25:16 - 01:25:18: 予想される前の時間ステップ 01:25:18 - 01:25:21: 「見た」または「見た」という言葉にも投票する人 01:25:21 - 01:25:24: 一定期間 01:25:24 - 01:25:27: そして、いつでも同様の方法で 01:25:27 - 01:25:30: 見たまたはピリオドという言葉に出くわす 01:25:30 - 01:25:32: 私たちは名前が後に来なければならないことを知っています 01:25:32 - 01:25:35: そのため、非常に投票することを学びます 01:25:35 - 01:25:37: 名前に強く 01:25:37 - 01:25:42: ジェーン・ダグまたはスポット 01:25:42 - 01:25:45: したがって、この形式では、この定式化で 01:25:45 - 01:25:48: リカレントニューラルネットワークを持っている 01:25:48 - 01:25:50: 簡単にするために、ベクトルと 01:25:50 - 01:25:52: 重みを折りたたんで 01:25:52 - 01:25:54: ドットと 01:25:54 - 01:25:56: 点と線を結ぶ矢印 01:25:57 - 01:25:59: そして、私たちが持っていないシンボルがもう1つあります 01:25:59 - 01:26:00: まだ話した 01:26:00 - 01:26:03: これはスカッシュ関数であり、 01:26:03 - 01:26:05: ネットワークの動作を助ける 01:26:05 - 01:26:08: それがどのように機能するか 01:26:10 - 01:26:12: 出てきて、あなたは彼らをこれに服従させます 01:26:12 - 01:26:14: 例えば ​​if のスカッシング関数 01:26:14 - 01:26:17: 何かに合計0.5票の投票がありました 01:26:17 - 01:26:18: あなたはその場所に垂直線を引きます 01:26:18 - 01:26:20: あなたが描く関数を横切る 01:26:20 - 01:26:23: y 軸への水平線と 01:26:23 - 01:26:26: あなたの押しつぶされたバージョンがあります 01:26:26 - 01:26:28: 小さい数の場合、押しつぶされたバージョン 01:26:28 - 01:26:30: オリジナル版にかなり近い 01:26:30 - 01:26:32: しかし、あなたの数が大きくなるにつれて 01:26:32 - 01:26:35: 出てくる数字が近くて 01:26:35 - 01:26:37: ひとつに近づく 01:26:37 - 01:26:38: 同様に、大きな 01:26:38 - 01:26:40: 負の数の場合、得られるもの 01:26:40 - 01:26:43: マイナス1に近いだろう 01:26:43 - 01:26:45: 何を入れても 01:26:45 - 01:26:47: 出てくるのはマイナス1から 01:26:49 - 01:26:51: これはあなたが持っているときに本当に役に立ちます 01:26:51 - 01:26:54: 同じ値があるこのようなループ 01:26:54 - 01:26:56: 翌日何度も処理される 01:26:58 - 01:27:00: あなたが想像できる可能性があります 01:27:00 - 01:27:02: その処理の過程で何かを言う 01:27:02 - 01:27:04: 2回投票されて倍増した 01:27:06 - 01:27:08: その場合、2倍の大きさになります 01:27:08 - 01:27:11: 毎回そしてすぐに爆破する 01:27:14 - 01:27:17: それが常により少ないことを保証することによって 01:27:17 - 01:27:19: 1 マイナス 1 以上 01:27:19 - 01:27:21: あなたはそれを掛けることができます 01:27:21 - 01:27:22: 何度でも行ける 01:27:22 - 01:27:25: そのループを通り抜けると爆発しません 01:27:25 - 01:27:28: フィードバック ループでは、これは次の例です。 01:27:28 - 01:27:29: 負帰還または減衰 01:27:31 - 01:27:32: あなたは私たちの神経に気づいたかもしれません 01:27:32 - 01:27:34: 現在の状態のネットワークが対象です 01:27:34 - 01:27:37: いくつかの間違いに 01:27:37 - 01:27:38: たとえば、次の文を取得できます 01:27:38 - 01:27:40: フォーム・ダグ 01:27:44 - 01:27:47: Doug は、saw という言葉に強く投票します 01:27:47 - 01:27:49: 次に、名前に強く投票します 01:27:49 - 01:27:52: ダグになる可能性のある名前 01:27:52 - 01:27:54: 同様に、次のようなものを取得できます 01:27:54 - 01:27:56: ダグ・ソー・ジェーン 01:27:56 - 01:27:59: のこぎり 01:27:59 - 01:28:02: 私たちの予測はそれぞれ 01:28:02 - 01:28:05: 1 つの時間ステップを振り返ってみると、非常に 01:28:05 - 01:28:07: 短期記憶 01:28:07 - 01:28:09: からの情報は使用しません。 01:28:09 - 01:28:10: さらに戻る 01:28:10 - 01:28:12: これらのタイプの対象となります 01:28:14 - 01:28:16: これを克服するために、私たちは 01:28:16 - 01:28:18: リカレントニューラルネットワークと展開 01:28:18 - 01:28:22: それにさらにいくつかのピースを追加します 01:28:22 - 01:28:24: 私たちが追加する重要な部分 01:28:24 - 01:28:25: ここの真ん中 01:28:25 - 01:28:27: 記憶です 01:28:27 - 01:28:29: 私たちは何を思い出すことができるようになりたいです 01:28:29 - 01:28:33: 数歩前に何度も起こった 01:28:33 - 01:28:35: これがどのように機能するかを説明するために 01:28:35 - 01:28:37: いくつかの新しい記号を説明する必要があります 01:28:37 - 01:28:39: ここで紹介した 01:28:39 - 01:28:41: 1 つは別のスカッシュ関数です。 01:28:41 - 01:28:43: 底が平らなもの 01:28:44 - 01:28:46: 1 つは丸の中の x で、もう 1 つは 01:28:46 - 01:28:50: 円を描く 01:28:50 - 01:28:52: だから円の中に十字架 01:28:52 - 01:28:55: 要素ごとの要素の追加です 01:28:55 - 01:28:57: それが機能する方法は、2つから始めることです 01:28:57 - 01:28:59: 等しいサイズのベクトル 01:28:59 - 01:29:01: そして、あなたはそれぞれを下ります 01:29:01 - 01:29:04: 1 つのベクトルの最初の要素を追加します 01:29:04 - 01:29:06: 別のベクトルの最初の要素へ 01:29:06 - 01:29:08: そして合計が最初に入る 01:29:11 - 01:29:12: そう 3 01:29:12 - 01:29:15: プラス 6 は 9 です。次に進みます。 01:29:15 - 01:29:18: 要素 4 + 7 は 11 です。 01:29:18 - 01:29:20: したがって、出力ベクトルは同じです 01:29:20 - 01:29:23: 各入力ベクトルのサイズ 01:29:23 - 01:29:25: 同じ長さの数字のリストですが、 01:29:25 - 01:29:28: それはの要素ごとの合計です 01:29:31 - 01:29:33: これと非常に密接に関連しています 01:29:33 - 01:29:35: おそらく推測した 01:29:35 - 01:29:37: 円の中の x は要素ごとです 01:29:39 - 01:29:41: 代わりにそれを除いて足し算のようなものです 01:29:41 - 01:29:44: 加算の例 3 01:29:44 - 01:29:47: 6 倍すると、18 の最初の要素が得られます。 01:29:47 - 01:29:50: 4 かける 7 は 28 になります。 01:29:50 - 01:29:52: 繰り返しますが、出力ベクトルは同じサイズです 01:29:52 - 01:29:57: 各入力ベクトルの 01:29:57 - 01:29:59: 要素ごとの乗算により、 01:29:59 - 01:30:01: かなりクールなことをする 01:30:02 - 01:30:05: あなたはあなたが持っていると想像します 01:30:05 - 01:30:08: 信号とそれはパイプの束のようなものです 01:30:08 - 01:30:10: そして彼らは一定量の水を持っています 01:30:10 - 01:30:12: それらを流そうとする 01:30:12 - 01:30:13: この場合、単に割り当てます 01:30:14 - 01:30:17: 0.8 の数を合図のように 01:30:18 - 01:30:21: これらのパイプのそれぞれに蛇口があります 01:30:21 - 01:30:23: 開いたり閉じたりできます 01:30:23 - 01:30:25: ずっと、またはどこかに保管してください 01:30:25 - 01:30:27: その信号が来るようにするための中間 01:30:27 - 01:30:29: 通過またはブロックする 01:30:29 - 01:30:32: この場合、開いているゲートは開いています 01:30:32 - 01:30:34: 蛇口は1つと閉じたものになります 01:30:34 - 01:30:36: 蛇口はゼロになります 01:30:36 - 01:30:39: そして、これが要素ごとに機能する方法 01:30:39 - 01:30:42: 乗算すると、0.8 倍の 1 が得られます 01:30:42 - 01:30:44: 0.8に等しい 01:30:44 - 01:30:46: その信号は 01:30:46 - 01:30:49: 出力ベクトルだが最後の要素 01:30:49 - 01:30:52: 0.8倍 0 01:30:52 - 01:30:53: 0 に等しい。 01:30:53 - 01:30:55: 元の信号は 01:30:55 - 01:30:57: 効果的にブロック 01:30:57 - 01:31:00: 次に、ゲーティング値 0.5 で 01:31:00 - 01:31:02: 信号は通過しましたが、 01:31:02 - 01:31:05: 小さいほど減衰する 01:31:06 - 01:31:09: ゲーティングにより、通過するものを制御できます 01:31:10 - 01:31:12: 通過し、ブロックされるもの 01:40:22 - 01:40:24: これは本当に便利です 01:31:15 - 01:31:17: 今ゲーティングを行うために 01:31:17 - 01:31:19: 自分が知っている価値があるのはいいことだ 01:31:19 - 01:31:21: は常に 0 と 1 の間です 01:31:21 - 01:31:24: そこで、別のスカッシュを導入します 01:31:28 - 01:31:29: これがロジスティックと呼ばれるものです 01:31:30 - 01:31:32: 機能は他のものと非常に似ています 01:31:32 - 01:31:33: 双曲線のスカッシング関数 01:31:34 - 01:31:36: ゼロの間を移動することを除いて 01:31:36 - 01:31:41: マイナス 1 と 1 の代わりに 1 と 1 01:31:41 - 01:31:43: これらすべてを紹介するとき 01:31:43 - 01:31:45: 一緒に私たちが得るもの 01:31:45 - 01:31:48: 私たちはまだ私たちの組み合わせを持っています 01:31:48 - 01:31:49: 以前の予測と私たちの新しい 01:31:51 - 01:31:53: それらのベクトルが渡されます 01:31:53 - 01:31:56: そしてそれらに基づいて予測を行います 01:31:56 - 01:31:59: それらの予測は通過しますが、 01:31:59 - 01:32:02: 他に起こることはコピーです 01:32:02 - 01:32:04: それらの予測の 01:32:04 - 01:32:05: に保持されます 01:32:05 - 01:32:08: 次のタイム ステップ 次のパス 01:32:08 - 01:32:10: ネットワークを通して 01:32:10 - 01:32:12: そのうちのいくつかはここにゲートがあります 01:32:13 - 01:32:15: それらのいくつかはそれらのいくつかを忘れています 01:32:15 - 01:32:17: 覚えている 01:32:17 - 01:32:19: 覚えているものが追加されます 01:32:19 - 01:32:21: 予測に戻る 01:32:21 - 01:32:23: 予測だけでなく 01:32:23 - 01:32:26: 予測と私たちが持っている思い出 01:32:27 - 01:32:31: まだ忘れることを選択していないことを 01:32:31 - 01:32:33: 今では完全に独立したニューラルがあります 01:32:33 - 01:32:36: ここで学習するネットワーク 01:32:36 - 01:32:39: いつ何を忘れる 01:32:39 - 01:32:40: 私たちが今見ているものに基づいて 01:32:40 - 01:32:42: 私たちは何を思い出したいの 01:32:42 - 01:32:45: 忘れたい 01:32:45 - 01:32:47: これが強力であることがわかります 01:32:47 - 01:32:49: のように物事を保持させてくれます 01:32:49 - 01:32:52: 私たちが望む限り 01:32:52 - 01:32:55: 今はお気づきかもしれませんが 01:32:55 - 01:32:56: 私たちがいるとき 01:32:56 - 01:32:58: 私たちの予測と私たちの予測を組み合わせて 01:32:58 - 01:33:01: 必ずしもしたくない記憶 01:33:01 - 01:33:03: それらのすべての思い出を新しいものとして解放します 01:33:03 - 01:33:05: 毎回予想 01:33:06 - 01:33:08: だから私たちは私たちを維持するために小さなフィルターが欲しい 01:33:08 - 01:33:10: 内部の思い出と私たちの予測をしましょう 01:33:10 - 01:33:12: 出て行け 01:33:12 - 01:33:14: そのために別のゲートを追加します 01:36:31 - 01:36:34: セレクションをする 01:33:16 - 01:33:19: 独自のニューラル ネットワークを持っているため、独自の 01:33:19 - 01:33:21: 私たちの新しい 01:33:21 - 01:33:23: 情報と以前の予測 01:33:23 - 01:33:24: に使える 01:33:24 - 01:33:27: すべてのゲートがどうあるべきかについて投票する 01:33:27 - 01:33:29: 何を内部に保持し、何を保持する必要があるか 01:33:29 - 01:33:32: 予測として発表されるべき 01:33:32 - 01:33:34: また、別のスカッシュも導入しました 01:33:34 - 01:33:36: 加算を行うため、ここで関数 01:33:36 - 01:33:38: ここでは、物事が可能である可能性があります 01:33:38 - 01:33:40: 1 より大きくなる、または 1 より小さくなる 01:33:40 - 01:33:42: マイナス1なので、それを押しつぶして 01:33:42 - 01:33:44: 絶対に出ないように気をつけて 01:33:44 - 01:33:46: コントロールの 01:33:46 - 01:33:47: そしていま 01:33:47 - 01:33:50: 新しい予測を取り入れるとき、 01:33:50 - 01:33:52: 多くの可能性を作る 01:33:52 - 01:33:55: そして記憶のあるものを集めます 01:33:55 - 01:33:57: 時間の経過とともに、可能なすべての 01:33:59 - 01:34:00: 各時間ステップで 01:34:00 - 01:34:03: いくつかを選択してリリースします 01:34:03 - 01:34:06: その瞬間の予言 01:34:06 - 01:34:07: これらのことのそれぞれ 01:34:08 - 01:34:09: いつ忘れる 01:34:09 - 01:34:12: そしていつ物事を私たちの記憶から解放するか 01:34:12 - 01:34:16: 独自のニューラル ネットワークによって学習される 01:34:16 - 01:34:19: そして、追加する必要がある唯一の他の部分 01:34:19 - 01:34:21: ここで私たちの絵を完成させるのはまだです 01:34:21 - 01:34:23: 別のゲートのセット 01:34:23 - 01:34:26: これにより、実際に無視できます 01:34:26 - 01:34:29: ええと、可能な予測の可能性として 01:34:29 - 01:34:30: 彼らが入ってくる 01:34:30 - 01:34:33: これは注意メカニズムです 01:34:33 - 01:34:35: それはすぐにではないことを可能にします 01:34:36 - 01:34:39: 彼らが曇らないように脇に置いておく 01:34:39 - 01:34:42: 今後のメモリ内の予測 01:34:42 - 01:34:45: 独自のニューラル ネットワークを持ち、 01:34:46 - 01:34:48: ロジスティックスカッシング関数とそれ自身 01:34:48 - 01:34:51: ここでのゲーティング アクティビティ 01:34:51 - 01:34:53: 現在、長期短期記憶には多くの 01:34:53 - 01:34:56: 一緒に働くたくさんのビット 01:34:56 - 01:34:58: 頭を包むのは少し多いです 01:34:58 - 01:34:59: 一周して、どうしよう 01:34:59 - 01:35:02: 非常に単純な例とステップを取り上げます 01:35:02 - 01:35:03: 方法を説明するためだけに 01:35:03 - 01:35:06: これらの作品のカップルが動作します 01:35:06 - 01:35:08: 確かに単純すぎる 01:35:09 - 01:35:11: 後で自由に穴を開けてください 01:35:11 - 01:35:13: その点に到達すると、あなたは知っています 01:35:13 - 01:35:14: あなたは次に進む準備ができています 01:35:14 - 01:35:16: 材料のレベル 01:35:16 - 01:35:19: 私たちは今、私たちの記事を書いている最中です 01:35:19 - 01:35:21: 児童書 01:35:21 - 01:35:24: デモンストレーションの目的で 01:35:24 - 01:35:27: この lstm が 01:35:28 - 01:35:31: 私たちの児童書の例で 01:35:31 - 01:35:33: 真似したい 01:35:33 - 01:35:36: すべての適切な投票と 01:35:36 - 01:35:37: これらのニューラル ネットワークの重みは 01:37:36 - 01:37:37: 学んだ 01:35:39 - 01:35:40: 今、私たちはそれを示します 01:35:40 - 01:35:45: これまでのアクション これまでのストーリーは 01:35:45 - 01:35:47: ジェーン・ソースポット時代 01:35:48 - 01:35:51: doug が最新の単語です 01:35:51 - 01:35:53: 私たちの物語で起こった 01:35:53 - 01:35:55: 今回も驚くことではありません 01:35:57 - 01:35:59: ダグ・ジェーンとスポットという名前はすべて 01:35:59 - 01:36:03: 実行可能なオプションとして予測 01:36:03 - 01:36:05: これは理にかなっています。 01:36:05 - 01:36:07: ピリオドのある文 新しい文 01:36:07 - 01:36:08: 任意の名前で開始できるため、これらはすべて 01:36:08 - 01:36:11: 素晴らしい予測なので、 01:36:11 - 01:36:13: 新情報 01:36:13 - 01:36:15: ダグという言葉は 01:36:15 - 01:36:17: 私たちは最近の予測を持っています 01:36:17 - 01:36:19: ダグ・ジェーンとスポット 01:36:19 - 01:36:22: これら2つのベクトルを一緒に渡します 01:36:22 - 01:36:25: 4 つのニューラル ネットワークすべてに 01:36:25 - 01:36:28: 予測することを学んでいます 01:36:28 - 01:36:31: 無視すること 忘れること 01:36:36 - 01:36:38: これらの最初のもの 01:36:38 - 01:36:40: いくつかの予測を行います 01:36:40 - 01:36:43: ダグという単語がちょうど発生したことを考えると 01:36:43 - 01:36:46: これは、言葉が見たことを学びます 01:36:46 - 01:36:47: は素晴らしいです 01:36:47 - 01:36:50: 次の単語を推測する 01:36:50 - 01:36:53: しかし、それを見たことも学んだ 01:36:53 - 01:36:55: ダグという言葉 01:36:55 - 01:36:57: doug という単語が表示されないようにする 01:36:57 - 01:37:00: 再びすぐにDougという言葉を見て 01:37:00 - 01:37:02: 文の始まりなので、 01:37:02 - 01:37:04: ソールの肯定的な予測と 01:37:04 - 01:37:06: ダグの否定的な予測 それは私を言う 01:37:06 - 01:37:08: 近くでダグに会えるとは思わないでください 01:37:09 - 01:37:12: だからダグは黒い服を着ている 01:37:12 - 01:37:14: この例は単純すぎて 01:37:14 - 01:37:16: 注意または無視に集中する必要がある 01:37:16 - 01:37:18: 今はスキップします 01:37:18 - 01:37:21: そしてこの鋸の予言 01:37:21 - 01:37:24: ダグではない 01:37:24 - 01:37:27: 繰り返しますが、簡単にするために 01:37:27 - 01:37:28: にメモリがないとしましょう 01:37:28 - 01:37:30: 瞬間そう 01:37:30 - 01:37:33: のこぎりとダグは前に出ます 01:37:33 - 01:37:36: そして、ここでの選択メカニズム 01:37:37 - 01:37:40: 一番最近の単語が 01:37:41 - 01:37:43: 次に来るのは 01:37:44 - 01:37:47: 単語のこぎりまたはピリオド 01:37:47 - 01:37:49: 他の名前が出てこないように 01:37:49 - 01:37:51: ダグではないという投票があるという事実 01:37:51 - 01:37:55: ここでブロックされ、単語のこぎり 01:37:55 - 01:37:56: 送り出される 01:37:56 - 01:38:00: 次の時間ステップの予測として 01:38:00 - 01:38:04: だから私たちは今一歩前進します 01:38:04 - 01:38:06: 見たという言葉は私たちの最新の言葉であり、 01:38:06 - 01:38:08: 彼らが得た最新の予測 01:38:08 - 01:38:10: これらすべてのニューラルに転送されました 01:38:10 - 01:38:12: ネットワークと新しいセットを取得します 01:38:13 - 01:38:16: 見たという言葉がちょうど起こったので 01:38:16 - 01:38:19: 私たちは今、単語 doug Jane を予測します 01:38:19 - 01:38:23: またはスポットが次に来るかもしれません 01:38:23 - 01:38:25: 私たちは無視と注意を見過ごします 01:38:25 - 01:38:27: この例では、それらを取り上げます 01:38:27 - 01:38:29: 前向きな予測 01:38:29 - 01:38:31: 今起こったもう一つのこと 01:38:31 - 01:38:34: 以前のセットです 01:38:35 - 01:38:38: 私たちがいたという言葉は、ダグではなく、見た 01:38:38 - 01:38:40: 内部で維持する 01:38:40 - 01:38:43: 忘却の門をくぐる 01:38:43 - 01:38:45: 今は忘却の門 01:38:45 - 01:38:47: ねえ私の最後の言葉を言う 01:38:47 - 01:38:50: それはその言葉だった 01:38:51 - 01:38:53: 私の過去の経験に基づいて、私は 01:38:53 - 01:38:55: あなたのことを忘れることができます 01:38:55 - 01:38:57: 起こったことを忘れることができる 01:38:57 - 01:38:59: でも飼いたい 01:38:59 - 01:39:02: 名前に関係する予測 01:39:02 - 01:39:04: だからそれはのこぎりを忘れる 01:39:04 - 01:39:07: ダグでないことに投票し続ける 01:39:07 - 01:39:09: そして今これで 01:39:10 - 01:39:11: 要素ごとの追加 01:39:11 - 01:39:13: ダグに賛成 反対 o に投票 01:39:14 - 01:39:16: ダグとお互いを打ち消し合う 01:39:16 - 01:39:19: これで、ジェーンと 01:39:21 - 01:39:23: それらは前方に渡されます 01:39:23 - 01:39:25: 私たちの選択ゲート 01:39:25 - 01:39:28: これは、単語 saw がちょうど発生したことを知っています 01:39:28 - 01:39:30: 経験に基づいて名前が付けられます 01:39:30 - 01:39:32: 次に起こるので、それは通過します 01:39:32 - 01:39:35: 名前と 01:39:35 - 01:39:38: 次の時間ステップでは、予測を取得します 01:39:38 - 01:39:41: ジェーンとスポットだけの 01:39:41 - 01:39:42: ダグじゃない 01:39:42 - 01:39:46: これにより、ダグソーダグ期間が回避されます 01:39:46 - 01:39:48: エラーの種類とその他のエラー 01:57:15 - 01:57:17: 私たちは見た 01:39:51 - 01:39:52: これが示していること 01:39:52 - 01:39:55: 長期短期記憶が見えるということです 01:39:56 - 01:39:59: 2 3 多くのタイム ステップ 01:39:59 - 01:40:02: その情報を使って良いものを作る 01:40:02 - 01:40:04: 何が起こるかについての予測 01:40:05 - 01:40:07: バニラの再発に公平になるように 01:40:07 - 01:40:09: 実際に見えるニューラルネットワーク 01:40:09 - 01:40:12: いくつかの時間ステップも戻りますが、そうではありません 01:40:12 - 01:40:14: 非常に多くの 01:40:14 - 01:40:17: lstm は多くの時間ステップを振り返ることができ、 01:40:17 - 01:40:22: 成功したことを示しました 01:40:24 - 01:40:28: いくつかの驚くほど実用的なアプリケーション 01:40:28 - 01:40:30: 1 つの言語のテキストがあり、 01:40:30 - 01:40:32: それを別のテキストに翻訳したい 01:40:32 - 01:40:36: 言語 lstms は非常にうまく機能します 01:40:37 - 01:40:41: 翻訳は一言一句ではありませんが 01:40:42 - 01:40:44: それはフレーズごと、またはいくつかのフレーズです 01:40:44 - 01:40:46: 文から文へのプロセス 01:40:46 - 01:40:50: lstms はそれらを表すことができます 01:40:50 - 01:40:52: 固有の文法構造 01:40:52 - 01:40:55: 各言語と 01:40:55 - 01:40:58: それがどのように見えるかというと、彼らは 01:40:58 - 01:41:00: より高いレベルのアイデアを見つけて翻訳する 01:41:00 - 01:41:02: それは一つの表現方法から 01:41:02 - 01:41:05: もう1つは、ビットとピースを使用するだけです 01:41:05 - 01:41:08: 私たちがちょうど通り抜けたこと 01:41:08 - 01:41:10: 彼らがうまくやっているもう一つのことは 01:41:10 - 01:41:13: 音声をテキストに翻訳する 01:41:13 - 01:41:14: スピーチはただ 01:41:14 - 01:41:17: 時間とともに変化するいくつかの信号 01:41:17 - 01:41:19: それらを取得し、それを使用して 01:41:20 - 01:41:23: どのテキストがどの単語が話されているか 01:41:23 - 01:41:25: それは使用できます 01:41:25 - 01:41:28: 歴史 最近の言葉の歴史 01:41:28 - 01:41:29: 何が起こっているのかをよりよく推測するために 01:41:29 - 01:41:32: 次に来る 01:41:32 - 01:41:34: lstms は最適です 01:41:35 - 01:41:38: 時間に埋め込まれたすべての情報 01:41:41 - 01:41:42: もちろん、私のお気に入りのアプリケーション 01:41:42 - 01:41:44: ロボティクスです 01:41:44 - 01:41:47: ロボティクスはそれ以上のものではありません 01:41:47 - 01:41:50: ええと、エージェントから情報を取得します 01:41:50 - 01:41:51: センサーのセット 01:41:51 - 01:41:54: そしてその情報を元に 01:41:54 - 01:41:56: 決定を下す 01:41:56 - 01:41:58: そして行動を起こす 01:41:58 - 01:42:01: それは本質的にシーケンシャルであり、アクションです 01:42:01 - 01:42:04: 今すぐ撮影すると、感知されるものに影響を与えることができます 01:42:04 - 01:42:07: そして、何回もステップを実行する必要があります 01:42:07 - 01:42:11: ダウンザライン 01:42:11 - 01:42:13: lstmsがどのように見えるか興味があるなら 01:42:14 - 01:42:15: 数学で 01:42:15 - 01:42:17: これはそれです これはまっすぐに持ち上げられます 01:42:17 - 01:42:19: ウィキペディアのページ 01:42:19 - 01:42:21: 私はそれをステップスルーしませんが、それは 01:42:21 - 01:42:23: そのように見える何かを奨励する 01:42:24 - 01:42:26: 数学的に表現された 01:42:26 - 01:42:28: 実際にはかなり簡単になります 01:42:28 - 01:42:30: 絵と物語 01:42:30 - 01:42:33: さらに詳しく知りたい場合は、 01:42:33 - 01:42:35: ウィキペディアに行くことをお勧めします 01:42:35 - 01:42:38: 本当にのコレクションもあります 01:42:38 - 01:42:41: チュートリアルとディスカッション 01:42:41 - 01:42:44: lstm を説明する他の方法 01:42:44 - 01:42:46: 同様に役立つかもしれません 01:42:46 - 01:42:49: 私もあなたが訪問することを強くお勧めします 01:42:49 - 01:42:51: andre carpathi のブログ投稿 01:42:51 - 01:42:55: lstms がテキストでできることの例 01:42:55 - 01:42:58: 読んでいるときにあなたは許されることができます 01:42:58 - 01:43:00: 魔法の代わりになるインターネット 01:43:00 - 01:43:03: ディープラーニングに最適で、完全に適合します 01:43:03 - 01:43:05: すべての記事で 01:43:05 - 01:43:07: できないことを知るのは難しい 01:43:07 - 01:43:09: それについてはあまり話さないでください 01:43:09 - 01:43:11: この講演の目的はただ話すことです 01:43:11 - 01:43:13: 非常に単純なナットとボルトについて 01:43:14 - 01:43:17: お昼寝したいケースまとめ 01:43:17 - 01:43:20: ディープラーニングは魔法ではない 01:43:20 - 01:43:23: しかし、パターンを見つけるのは本当に得意です 01:43:24 - 01:43:25: これなら 01:43:25 - 01:43:28: 私たちの脳です 01:43:28 - 01:43:30: これが深層学習です 01:43:30 - 01:43:32: フクロウは飛ぶことができます 01:43:32 - 01:43:35: ええと、戦闘機は飛ぶことができます 01:43:35 - 01:43:37: しかし、多くのことがあり、 01:43:37 - 01:43:39: フクロウができる 01:43:39 - 01:43:41: そして間違いなく、それははるかに複雑です 01:43:42 - 01:43:44: ジェット戦闘機は何をしますが 01:43:44 - 01:43:47: 本当によくやってる 01:43:47 - 01:43:49: ディープラーニングは戦闘機です 01:43:50 - 01:43:52: 高度に専門化 01:43:56 - 01:43:57: 今日は 01:43:59 - 01:44:01: ライト兄弟の飛行機 01:44:01 - 01:44:03: その原理を理解すれば 01:44:03 - 01:44:06: 動作し、簡単に分岐できることがわかります 01:44:06 - 01:44:09: より細かいエンジニアリングの詳細に 01:44:09 - 01:44:10: しかし、たくさんのことがあります 01:44:10 - 01:44:11: 私たちがいない戦闘機に乗り込みます 01:44:11 - 01:44:14: 詳しく話していきます 01:44:14 - 01:44:16: しかし、これについて話すことができてうれしいです 01:44:16 - 01:44:19: 快適なレベルで 01:44:20 - 01:44:23: すべてのニューロンのように、大きな体を持っています 01:44:23 - 01:44:25: 中央の長い尾といくつかの腕 01:44:25 - 01:44:27: 分岐する 01:44:27 - 01:44:29: これがアーティストのコンセプトです 01:44:29 - 01:44:31: ニューラルネットワークまたはニューロンの束 01:44:32 - 01:44:35: 大きな体の長い尾 01:44:37 - 01:44:40: これはニューロンの実際の写真です 01:44:40 - 01:44:42: 一部の脳組織 01:44:42 - 01:44:45: ここでは、ボディはドットまたはブロブのように見えます 01:44:45 - 01:44:46: いくつかの長い尾を見ることができます 01:44:46 - 01:44:48: 枝と腕はかなり 01:44:51 - 01:44:54: そして再び脳組織の写真 01:44:54 - 01:44:56: ここでニューロンは小さな点であり、あなたは 01:44:56 - 01:44:59: 尻尾がほとんど見えない 01:44:59 - 01:45:01: これは、方法を理解するためのものです。 01:45:01 - 01:45:03: これらのものがしっかりと詰め込まれています 01:45:03 - 01:45:07: そして、それらはいくつありますか 01:45:07 - 01:45:09: ゼロがたくさんある大きな数と 01:45:09 - 01:45:11: クレイジーな部分は、それらの多くが 01:45:11 - 01:45:14: より多くの 01:45:14 - 01:45:16: この隣人 01:45:16 - 01:45:19: の最初の写真の 1 つです。 01:45:20 - 01:45:22: サンティアゴ・ラモナ・カハル 01:45:22 - 01:45:24: 彼が導入できる染みを見つけた 01:45:24 - 01:45:27: セルにすべてを暗くします 01:45:27 - 01:45:29: 彼の下で 01:45:29 - 01:45:31: 19世紀 01:45:31 - 01:45:34: 光学顕微鏡はこれを見ることができました 01:45:34 - 01:45:36: そしてペンと紙で描く 01:45:36 - 01:45:38: これは古い学校です 01:45:38 - 01:45:39: あなたがここで見るもの 01:45:40 - 01:45:42: ロングテール 01:45:42 - 01:45:44: たくさんの腕 01:45:44 - 01:45:46: ええと、これらは私たちがそれを回すつもりです 01:45:46 - 01:45:47: それが彼らのやり方だからです。 01:45:47 - 01:45:49: 通常、ニューラル ネットワークで表されます 01:45:49 - 01:45:51: これらのピースには実際に 01:45:51 - 01:45:54: 体の名前は相馬と呼ばれます 01:45:54 - 01:45:57: 長い尾は軸索と呼ばれます 01:45:57 - 01:46:00: そして腕は樹状突起と呼ばれます 01:46:00 - 01:46:02: の漫画版を描きます 01:46:03 - 01:46:05: これは、ええと、彼らがどのように見えるかです 01:46:05 - 01:46:08: パワーポイントで 01:46:08 - 01:46:10: ニューロンの働き方 01:46:10 - 01:46:12: それはあなたが考えることができる樹状突起です 01:46:12 - 01:46:14: 触手またはひげとして、彼らは探します 01:46:14 - 01:46:16: 彼らはそれを拾い上げ、 01:46:16 - 01:46:19: 体に送る 01:46:19 - 01:46:21: 相馬はこれを取り、一緒に追加します 01:46:21 - 01:46:23: そしてそれを蓄積し、それに応じて 01:46:23 - 01:46:25: どのくらいの速さで蓄積されるか 01:46:25 - 01:46:28: 軸索を活性化し、その信号を送る 01:46:29 - 01:46:32: テールダウン 01:46:32 - 01:46:35: より多くの樹状突起活動がある 01:46:36 - 01:46:38: 軸索活動があります 01:46:38 - 01:46:40: 樹状突起をすべて取得した場合 01:46:40 - 01:46:42: 本当に発火したら、その軸索はそのままです 01:46:42 - 01:46:44: 可能な限りアクティブ 01:46:44 - 01:46:47: 非常に単純な方法で 01:46:47 - 01:46:52: ニューロンは物事を足し合わせる 01:46:52 - 01:46:56: シナプスは、1つの軸索がどこにあるかです 01:46:56 - 01:46:58: ニューロンが別の樹状突起に触れる 01:46:58 - 01:47:01: それはアーティストの考え方です 01:47:01 - 01:47:03: ラモナ・タホの絵で見ることができます 01:47:03 - 01:47:04: これらの小さな 01:47:04 - 01:47:06: ナブまたはボタン 01:47:06 - 01:47:09: 彼らは実際にブートンと呼ばれています 01:47:09 - 01:47:11: 樹状突起 01:47:11 - 01:47:13: これらはサイトです 01:47:13 - 01:47:16: 別のニューロンの軸索が接触する場所 01:47:18 - 01:47:19: 想像できるように 01:47:19 - 01:47:22: そこに接続 01:47:22 - 01:47:23: その接続を 01:47:23 - 01:47:25: 円とその円の直径 01:47:25 - 01:47:27: そのつながりの強さは大きい 01:47:27 - 01:47:29: 丸 強いつながり 01:47:29 - 01:47:31: 強く接続することも弱く接続することもできます 01:47:31 - 01:47:34: その間のどこかに 01:47:34 - 01:47:35: この接続に番号を付けることができます 01:47:35 - 01:47:38: 0 から 1 の間 01:47:38 - 01:47:40: だから中程度の接続 01:47:40 - 01:47:42: これを 0.6 とします 01:47:42 - 01:47:45: 入力ニューロンの軸索が 01:47:45 - 01:47:47: 上流のニューロン 01:47:47 - 01:47:48: アクティブです 01:47:48 - 01:47:49: それから 01:47:49 - 01:47:52: 出力の樹状突起を活性化します 01:47:53 - 01:47:56: ささやかな強さでそれを伝える 01:47:56 - 01:47:58: そのつながりが強ければ 01:47:58 - 01:48:00: 次に、信号を非常に渡します 01:48:00 - 01:48:03: 強くその接続は 1 つです。 01:48:03 - 01:48:04: 軸索が次に活動するとき 01:48:04 - 01:48:07: 樹状突起は非常に活発です 01:48:07 - 01:48:09: 同様に、その接続が非常に弱い場合 01:48:09 - 01:48:11: 0.2と言う 01:48:11 - 01:48:13: 軸索が活性化すると、 01:48:13 - 01:48:15: 出力ニューロンの樹状突起は 01:48:15 - 01:48:18: 活性化が弱い 01:48:18 - 01:48:22: まったく接続がない場合はゼロです 01:48:22 - 01:48:25: 今、これは面白くなり始めています 01:48:25 - 01:48:28: 多くの異なる入力ニューロンが 01:48:28 - 01:48:30: 単一の樹状突起に接続する 02:01:29 - 02:01:30: 出力ニューロン 01:48:31 - 01:48:35: それぞれのつながりには独自の強みがあります 01:48:36 - 01:48:38: すべてを取り出すことでこれを再描画できます 01:48:38 - 01:48:39: 平行な樹状突起とただの描画 01:48:39 - 01:48:41: 各軸索と単一の樹状突起 01:48:41 - 01:48:43: それはに接続し、接続 01:48:43 - 01:48:45: 強度は次のように表されます 01:48:47 - 01:48:50: それを数字で代用することができます 01:48:51 - 01:48:53: ほとんどの場合 01:48:53 - 01:48:56: ええと、代用を分離することもできます 01:48:56 - 01:48:58: 強度を示す線の太さ 01:48:58 - 01:49:00: これらのものはほとんどの場合接続されています 01:49:00 - 01:49:03: ニューラルネットワークはこのように描かれます 01:49:03 - 01:49:05: そして、これが私たちが行ったものです 01:49:06 - 01:49:09: 脳組織の超複雑なスライス 01:49:10 - 01:49:12: その操作には多くの微妙な点があります 01:49:12 - 01:49:13: と相互接続 01:49:14 - 01:49:17: 素敵な円棒グラフ 01:49:17 - 01:49:18: それらのそれぞれがどこに固執するか 01:49:18 - 01:49:22: 重みを表す 01:49:22 - 01:49:23: 現在の形で 01:49:23 - 01:49:26: それはまだいくつかのかなりクールなことをすることができます 01:49:26 - 01:49:29: 入力ニューロン 入力ニューロンは 01:49:29 - 01:49:31: 多くの出力ニューロンに接続する 01:49:32 - 01:49:34: 実際にここで得られるものはたくさんあります 01:49:34 - 01:49:36: 多くの出力を入力 01:49:36 - 01:49:38: そしてそれぞれのつながりは 01:49:38 - 01:49:42: 明確で、独自の重みがあります 01:49:42 - 01:49:44: これはええと、きれいにするのに良いです 01:49:44 - 01:49:46: 写真にも最適です 01:49:46 - 01:49:49: 物事の組み合わせを表す 01:49:49 - 01:49:51: そして、これが行われる方法 01:49:51 - 01:49:53: 5つの入力があるとしましょう 01:49:53 - 01:49:57: a b c e とラベル付けされた 01:49:57 - 01:49:59: この場合、この出力ニューロンは 01:49:59 - 01:50:02: への強いつながり 01:50:02 - 01:50:03: cとe 01:50:03 - 01:50:06: b と d への接続が非常に弱い 01:50:06 - 01:50:09: つまり、 a c および e 入力が 01:50:09 - 01:50:11: 神経細胞が活動している 01:50:11 - 01:50:13: 一緒に本当に強く 01:50:13 - 01:50:16: 出力ニューロンを活性化します 01:50:16 - 01:50:18: b と d は重要ではありません。 01:50:20 - 01:50:22: この出力について考える方法 01:50:22 - 01:50:24: ニューロンは、 01:50:24 - 01:50:26: 強く活性化されるので、これを 01:50:29 - 01:50:31: ここにある 01:50:31 - 01:50:33: のアトミックな例 01:50:33 - 01:50:35: この出力ニューロンで何が起こるか 01:50:35 - 01:50:38: 入力の組み合わせを表す 01:50:40 - 01:50:44: これは一言で言えばニューラルネットワークです 01:50:44 - 01:50:47: あらゆる種類の入力でこれを行うことができます 01:50:47 - 01:50:49: だからあなたは本当にローテクな4ピクセルを持っています 01:50:50 - 01:50:54: これらの 4 つの入力のそれぞれは、ええと、のいずれかです 01:50:54 - 01:50:56: 左上左下のピクセル 01:50:56 - 01:50:59: 右上または右下 01:50:59 - 01:51:02: この特定のニューラルネットワークでは 01:51:02 - 01:51:04: 左上と強いつながり 01:51:04 - 01:51:05: 右上のピクセル 01:51:05 - 01:51:07: ニューロンと出力ニューロンがあります 01:51:07 - 01:51:10: 上半分のこのバーを表します 01:51:12 - 01:51:15: 文字を組み合わせることができるので、組み合わせることができます 01:51:15 - 01:51:17: 作るピクセル 01:51:17 - 01:51:19: 小さな画像 01:51:19 - 01:51:21: テキスト処理をしている場合 01:51:21 - 01:51:23: 入力ニューロンは個人を表すことができます 01:51:26 - 01:51:29: 私たちはテキストから単語を抜き出しています 01:51:29 - 01:51:31: この出力ニューロンは強く接続されています 01:51:31 - 01:51:34: 目と球の前ニューロンへ 01:51:34 - 01:51:37: これを眼球ニューロンと呼ぶことができます 01:51:37 - 01:51:39: 同様に、サングラスを使用できます 01:51:40 - 01:51:42: 乳児ニューロンは多くのニューロンに接続できます 01:51:42 - 01:51:44: 眼鏡を作ることができるアウトプット 01:51:44 - 01:51:50: ニューロンと同じくらい簡単に 01:51:50 - 01:51:53: これをもう少し深く掘り下げると 01:51:53 - 01:51:56: 示すのはやや些細な例です 01:51:56 - 01:52:00: これらが実際にどのように機能するか 01:52:00 - 01:52:03: シャワルマの場所に男がいる 01:52:03 - 01:52:05: 他の誰とも違うシャワルマを作り、 01:52:05 - 01:52:07: いつ行くか確認したい 01:52:07 - 01:52:09: 彼はそこで働いています 01:52:10 - 01:52:11: 一歩下がって、実際にはいくつかあります 01:52:11 - 01:52:13: ここでのドメイン知識は、彼が持っていることを知っています 01:52:13 - 01:52:15: 2つのスケジュール 01:52:46 - 01:52:48: 朝の仕事 01:52:17 - 01:52:19: 夕方にオフとオフに 01:52:19 - 01:52:22: 朝晩作業 01:52:22 - 01:52:23: これをインストゥルメントする場合 01:52:25 - 01:52:27: 私たちは午前中に仕事をするでしょう 01:52:50 - 01:52:51: 朝休み 01:52:29 - 01:52:31: 夕方に働く 01:52:31 - 01:52:33: 夕方休み 01:52:33 - 01:52:36: そして、それは表すのに役立つかもしれません 01:52:36 - 01:52:38: という点での彼の作業パターン 01:52:38 - 01:52:40: 結合する出力ニューロンのカップル 01:52:43 - 01:52:44: これが私たちのネットワークです 01:52:44 - 01:52:46: で終わることを期待 01:52:48 - 01:52:50: 夕方は1パターン 01:52:51 - 01:52:53: 夕方は他の道であり、あなたはすることができます 01:52:54 - 01:52:55: つながりの強さに基づいて見る 01:52:56 - 01:53:00: それらの入力をどのように組み合わせるか 01:53:00 - 01:53:02: ここに関連する重みがあります 01:53:02 - 01:53:03: それらと 01:53:03 - 01:53:06: 問題は、これをどのように学習するかです 01:53:06 - 01:53:08: 中に入ってすべて記入しなければならない場合 01:53:08 - 01:53:10: 手で私たちは何も学んでいません 01:53:10 - 01:53:13: より洗練されたプログラミング方法 01:53:13 - 01:53:14: そしてたくさん 01:53:14 - 01:53:16: 特にあなたが扱っている場合はハードワーク 01:53:16 - 01:53:19: 何百万もの入力ニューロン 01:53:19 - 01:53:23: これを自動的に学習したい 01:53:23 - 01:53:24: だから最初は少しかもしれません 01:53:24 - 01:53:26: 直感に反して、私たちは神経を作成します 01:53:28 - 01:53:29: 入力ニューロンがあります 01:53:29 - 01:53:32: 選択するのは出力の数だけです 01:53:32 - 01:53:34: ニューロン この場合は2つを選択します 01:53:34 - 01:53:35: 私たちはたまたま学んでいることを知っているからです 01:53:35 - 01:53:37: 2パターン 01:53:37 - 01:53:40: そして、重みをランダムに割り当てます 01:53:40 - 01:53:42: 乱数生成数 01:53:42 - 01:53:44: これらのそれぞれがニューラルネットワークです 01:53:44 - 01:53:45: 完全にあなたが投げるサイコロを転がす 01:53:45 - 01:53:48: スティックと落ちるものは何でも 01:53:48 - 01:53:51: 何から始めるか 01:53:52 - 01:53:54: データの収集を開始します 01:53:54 - 01:53:56: 通りの反対側に立って 01:53:56 - 01:53:58: シャワルマの男が 01:53:58 - 01:54:00: この特定の日は 01:54:01 - 01:54:03: そして家に帰りました 01:54:06 - 01:54:07: この入力 01:54:07 - 01:54:11: アクティブであり、レベル 1 であると言えます 01:54:11 - 01:54:12: 多くの場合、朝はレベルゼロです 01:54:12 - 01:54:14: 私たちはそれを観察しなかったので 01:54:14 - 01:54:17: 朝の勤務はゼロ 01:54:18 - 01:54:20: 夕方のオフは1つ外なので 01:54:20 - 01:54:23: 私たちもそれを観察しました 01:54:23 - 01:54:26: 次のステップは 01:54:26 - 01:54:30: アクティビティを計算する出力ニューロン 01:54:32 - 01:54:34: これを行うための適切に簡単な方法 01:54:34 - 01:54:37: 入力の平均をとるだけです 01:54:37 - 01:54:38: だからここに 01:54:38 - 01:54:40: この重みは 0.3 で、この重みは 01:54:41 - 01:54:44: したがって、それらの平均は 0.2 です。 01:54:44 - 01:54:45: これらのニューロンは何も寄与しません 01:54:46 - 01:54:49: これらの入力がアクティブではないため 01:54:49 - 01:54:52: 同様に、間の重みを取ることができます 01:54:52 - 01:54:55: この入力とその出力 0.8 01:54:55 - 01:54:56: そして0.4 01:54:56 - 01:54:59: それらの平均は0.6です 01:54:59 - 01:55:01: 右側の上部ニューロンには 01:55:01 - 01:55:03: 私たちが気にかけているのは、より高い活動です 01:55:03 - 01:55:05: 私たちは他のすべてを無視します 01:55:05 - 01:55:07: 他の何百万人も私たちは残りを無視し、 01:55:07 - 01:55:12: この時間ステップでは、これに焦点を当てます 01:55:12 - 01:55:13: 私たちが最初に理解することは、どれほど間違っているかです 01:55:13 - 01:55:14: それは...ですか 01:55:14 - 01:55:16: それが完璧だったら 01:55:16 - 01:55:17: ネットワークは完璧でした 01:55:18 - 01:55:20: 1つのアクティビティは完璧です 01:55:20 - 01:55:23: 私たちの入力と一致していますが、それは 01:55:23 - 01:55:26: 0.6 のアクティビティなので、エラーは 0.4 です 01:55:26 - 01:55:29: そのエラーが大きいほど、それはシグナルです 01:55:29 - 01:55:31: どれだけ調整する必要があるか 01:55:31 - 01:55:33: その誤差が非常に小さくなるときの重み 01:55:34 - 01:55:35: つまり、重みが実際に 01:55:35 - 01:55:37: 何が起こっているかを表していますが、私たちはそうではありません 01:55:37 - 01:55:42: さらに変更を加える必要があります 01:55:42 - 01:55:44: ここでのトリック 01:55:44 - 01:55:47: 要素があれば勾配降下 01:55:47 - 01:55:48: 魔法の 01:55:48 - 01:55:52: 深層学習では勾配降下です 01:55:52 - 01:55:53: あなたがすること 01:55:53 - 01:55:55: それぞれを調整しますか? 01:55:59 - 01:56:00: あなたはそれを少し上に調整し、 01:56:00 - 01:56:02: 少し下がって、どちらに行くか見てみましょう 01:56:02 - 01:56:05: エラーを減らします 01:56:05 - 01:56:09: アイデア 勾配降下法における概念 01:56:10 - 01:56:12: 重量はシフトできる量です 01:56:12 - 01:56:15: 少し横に 01:56:15 - 01:56:18: あなたがするように、このエラーはあなたができるように変化します 01:56:18 - 01:56:20: このボールを取ると考えてください 01:56:20 - 01:56:22: 少し左にずらしたら 01:56:22 - 01:56:24: あなたがそれをシフトする場合、それは丘を登る必要があります 01:56:24 - 01:56:26: 少し右に落ちる必要があります 01:56:26 - 01:56:29: 丘を下ると、あなたはその方向が好きです 01:56:29 - 01:56:30: あなたはそれが進む方向を選択します 01:56:30 - 01:56:32: あなたはそのエラーをもたらしたいと思います 01:56:32 - 01:56:35: 可能な限り低くする 01:56:35 - 01:56:37: そして、あなたは小さな漸進的なステップを踏む 01:56:37 - 01:56:41: すべてを数値的に安定させる 01:56:41 - 01:56:43: ですから、私たちはすべての人に対してこれらを行います 01:56:43 - 01:56:45: ニューロンのすべてについて申し訳ありません 01:56:45 - 01:56:48: 入力ニューロンを私たちの 01:56:49 - 01:56:51: はい、私たちは増やしたいと思っています 01:56:51 - 01:56:53: これです 01:56:53 - 01:56:55: これらはアクティブではないため、実際には 01:56:55 - 01:56:58: 低体重に偏っているので、 01:56:58 - 01:57:00: 減ってもいいから行ってみよう 01:57:00 - 01:57:02: その重量を減らし、 01:57:02 - 01:57:04: その重量を減らし、それを増やす 01:57:05 - 01:57:07: 私たちがそれを行うとき、私たちの新しい 01:57:07 - 01:57:10: アクティビティは 7 なので、エラーが発生しました 01:57:10 - 01:57:12: ポイント4からポイント3まで 01:57:12 - 01:57:15: 何を表現するのが少し上手か 01:57:17 - 01:57:19: それが1つのデータポイントでした 01:57:19 - 01:57:21: 私たちは戻って同じことをします 01:57:22 - 01:57:24: たまたまこの日 01:57:24 - 01:57:26: 彼は午前中休みで、 01:57:27 - 01:57:30: ウェイトを調整し、その日に行います 01:57:30 - 01:57:32: 日ごとに 01:57:32 - 01:57:34: そして最終的にウェイトは停止します 01:57:35 - 01:57:37: または、かなりの変化が遅くなります 01:57:37 - 01:57:39: 彼らは少し安定するでしょう 01:57:39 - 01:57:40: そして、私たちは得る 01:57:40 - 01:57:43: 私たちがもともと持っていた重みのシステム 01:57:43 - 01:57:44: 私たちはその知識を持っていたので見ました 02:56:46 - 02:56:48: だからこれは 01:57:48 - 01:57:50: ライト兄弟 飛行機バージョン 01:57:50 - 01:57:51: どのように 01:57:51 - 01:57:54: を使用した逆伝播によるトレーニング 01:57:54 - 01:57:56: 勾配降下は逆伝播を機能させます 01:57:56 - 01:57:58: これを行うための非常に具体的な方法です 01:57:58 - 01:58:01: 計算上安価で滑らかで、 01:58:01 - 01:58:03: 高速で、ジェット エンジンを取得します。 01:58:03 - 01:58:07: 羽ばたきの代わりに 01:58:10 - 01:58:13: それが機能する 01:58:13 - 01:58:15: 私たちが今見たのはシングルでした 01:58:15 - 01:58:18: レイヤーには入力があり、出力があります 01:58:18 - 01:58:21: すべてのアウトプットは物事の組み合わせです 01:58:21 - 01:58:23: 前のレイヤーにあった 01:58:23 - 01:58:25: 今は理由がない 01:58:25 - 01:58:27: それから私たちは振り向いて取ることができない 01:58:27 - 01:58:29: その出力レイヤーを入力にします 01:58:30 - 01:58:31: 次のレイヤー 01:58:31 - 01:58:32: そしてそれをもう一度 01:58:32 - 01:58:34: そしてまた 01:58:34 - 01:58:36: ネットワークに 3 つ以上の層がある場合 01:58:36 - 01:58:39: またはそう私たちはそれを深いと呼びます 01:58:39 - 01:58:42: ええと、12を超える人もいます。 01:58:42 - 01:58:44: マイクロソフトの最近の調査では 01:58:44 - 01:58:45: 彼らのディープニューラルネットワークは 01:58:45 - 01:58:48: 千ドル以上はありません 01:58:48 - 01:58:51: 数を制限する理論的理由 01:58:51 - 01:58:52: あなたが持っているレイヤーの 01:58:52 - 01:58:54: それはあなたの詳細に依存します 01:58:57 - 01:58:59: 深いとはどういう意味ですか? 01:59:02 - 01:59:05: 入力ニューロンが文字を言う場合 01:59:07 - 01:59:09: あなたの最初の層の出力 01:59:09 - 01:59:11: 申し訳ありませんが、これは深層ニューラル ネットワークです。 01:59:11 - 01:59:13: に対して発行されたすべての接続 01:59:14 - 01:59:15: これらはあなたの入力です これはあなたの 01:59:16 - 01:59:17: 出力の最初の層 01:59:18 - 01:59:19: それらは組み合わせです 01:59:19 - 01:59:22: それらの手紙の 01:59:22 - 01:59:24: レベルが上がるたびに 01:59:24 - 01:59:25: レベルで起こったことの組み合わせ 01:59:26 - 01:59:28: その前にあなたがあなたに着くまでに 01:59:28 - 01:59:30: 取得している出力の第 2 レベル 01:59:30 - 01:59:31: おそらく言葉 01:59:31 - 01:59:33: それが何なら英語で 01:59:33 - 01:59:35: あなたがトレーニングしている 01:59:35 - 01:59:36: あなたが得る上の層 01:59:36 - 01:59:38: 単語の組み合わせ 01:59:38 - 01:59:39: 短いフレーズ 01:59:39 - 01:59:42: など、これを深くすることができます 01:59:42 - 01:59:45: 好きなように 01:59:45 - 01:59:47: できることはいろいろあるので、 01:59:47 - 01:59:50: ディープ ニューラル ネットワークで学習する 01:59:50 - 01:59:53: 人気は画像 01:59:53 - 01:59:56: 入力ピクセルとして取る場合 01:59:56 - 01:59:59: 見る代わりに見せて 01:59:59 - 02:00:02: あなたが見ているshawarmaの男のスケジュール 02:00:02 - 02:00:03: トレーニングとしての個々の写真 02:00:03 - 02:00:05: データセット 02:00:05 - 02:00:07: しばらくしてから学び始めるのは 02:00:07 - 02:00:09: これらの短い表現 02:00:09 - 02:00:13: 線と点とパッチ 02:00:13 - 02:00:15: これらは画像のプリミティブです 02:00:15 - 02:00:18: 顔の画像でトレーニングする場合 02:00:18 - 02:00:19: それからあなたの最初の 02:00:19 - 02:00:21: レイヤー出力 申し訳ありませんが、2 番目のレイヤー 02:00:21 - 02:00:24: 出力が目のように見え始め、 02:00:24 - 02:00:27: 鼻と口とあごとあなたの 02:00:27 - 02:00:29: 第 3 層の出力がはっきりと見え始めます 02:00:29 - 02:00:33: 顔として認識可能 02:00:33 - 02:00:35: 同様に、自動車でトレーニングする場合 02:00:35 - 02:00:37: 2番目のレイヤーの出力が見え始めます 02:00:37 - 02:00:40: 車輪やドアや窓のように 02:00:40 - 02:00:42: あなたの第3層の出力 02:00:42 - 02:00:45: 自動車のように見える 02:00:45 - 02:00:46: とてもクールで、私たちがする必要はありませんでした 02:00:46 - 02:00:48: 入って、それらのウェイトのいずれかをいじります 02:00:50 - 02:00:52: 写真の束 02:00:52 - 02:00:54: こちらのカラー画像でもできます 02:00:54 - 02:00:57: ええと、8 のいくつかの出力 02:00:57 - 02:00:59: 8 層ニューラルの出力ニューロン 02:00:59 - 02:01:01: ネットワークが深くなるにつれて、 02:01:01 - 02:01:03: はっきりと認識できるものを見る 02:01:03 - 02:01:05: 非常に複雑で、スパイダーと 02:01:06 - 02:01:08: ロッキングチェアとセーリングとチップと 02:01:11 - 02:01:14: についての情報をプラグインすることもできます 02:01:14 - 02:01:16: 音楽アーティスト 02:01:16 - 02:01:19: だからここにいくつかの研究があります 02:01:19 - 02:01:21: 出力ニューロンはに基づいて学習されました 02:01:21 - 02:01:23: アーティストに関する情報とその 02:01:24 - 02:01:26: 表現は、方法に基づいてプロットされました 02:01:26 - 02:01:29: 似たようなものでした 02:01:30 - 02:01:33: そのため、次のようなことがわかります 02:01:33 - 02:01:34: ケリー・クラークソン 02:01:34 - 02:01:38: とビヨンセはここで似ています 02:01:38 - 02:01:40: テイラー・スウィフトからもそう遠くない 02:01:40 - 02:01:42: とアヴリル・ラヴィーン 02:01:42 - 02:01:45: ここに上がればウィーザー 02:01:45 - 02:01:47: フラット キー モデレート マウス プレジデント 02:01:47 - 02:01:49: アメリカ合衆国 02:01:51 - 02:01:53: これは知らなかったネットワークです 02:01:53 - 02:01:55: まだ何も知らない 02:01:55 - 02:01:56: 音楽について 02:01:57 - 02:01:59: それが取得するデータのため 02:01:59 - 02:02:01: これらをグループ化できる入力ニューロン 02:02:01 - 02:02:04: 物事を適切にパターンを見つける 02:02:04 - 02:02:06: 次に、最も近いものを見つけます 02:02:06 - 02:02:09: それらのパターンに当てはまる 02:02:09 - 02:02:12: atari 2600 ゲームをプレイできることがわかりました 02:02:12 - 02:02:14: ピクセル表現フィードを取得する 02:02:14 - 02:02:17: 入力ニューロンとしてのそれらは、いくつかの楽しみを学びます 02:02:17 - 02:02:18: 機能を追加してから、何かとペアリングします 02:02:18 - 02:02:21: そうでなければ強化学習と呼ばれる 02:02:21 - 02:02:23: 適切な行動を学ぶ 02:02:23 - 02:02:24: 特定のクラスに対してこれを行うと、 02:02:24 - 02:02:27: それらを遠くまでプレイすることを学ぶことができるゲームの数 02:02:27 - 02:02:29: これまでのどの人間のプレーヤーよりも優れている、または 02:02:29 - 02:02:33: する可能性が高い 02:02:33 - 02:02:35: そして、あなたが取ることができることがわかりました 02:02:35 - 02:02:38: ロボットにYouTubeの動画を見せて 02:02:38 - 02:02:39: 料理の仕方について 02:02:40 - 02:02:42: ディープニューラルのペアを使用して負けます 02:02:42 - 02:02:45: ネットワーク 1 がビデオ 1 を解釈します 02:02:45 - 02:02:48: 自分の動きを理解することを学ぶ 02:02:48 - 02:02:50: そして、それらのペアを使用します 02:02:50 - 02:02:53: 調理する他の実行ソフトウェア 02:02:53 - 02:02:55: ビデオ表現に基づいて 02:02:55 - 02:02:57: 見えた 02:02:59 - 02:03:02: それは魔法ではありませんが、かなりクールです 02:03:02 - 02:03:06: あなたはいくつかのことをすることができます 02:03:06 - 02:03:08: あなたが読んでいる間、 02:03:08 - 02:03:10: 人気記事を読む文学 02:03:10 - 02:03:11: これについては、ビンゴをすることができます 02:03:11 - 02:03:13: いくつかの流行語があります いくつかの人気があります 02:03:13 - 02:03:15: たくさん考えられるアルゴリズム 02:03:15 - 02:03:17: これらはあなたが知っているモデル番号です 02:03:17 - 02:03:19: 出ている様々な戦闘機 02:03:20 - 02:03:22: ただし、これらの用語のいずれかが表示された場合 02:03:22 - 02:03:24: あなたは精神的にできることが好きです 02:03:24 - 02:03:26: の代用 02:03:26 - 02:03:29: ディープラーニングと知識の応用 02:03:29 - 02:03:30: ライト兄弟の飛行機について 02:03:30 - 02:03:34: そのほとんどはまだ正確です 02:03:34 - 02:03:36: 要するに学習能力が高いということです 02:03:36 - 02:03:37: 何もしないパターン 02:03:37 - 02:03:40: パターンを学ぶのが得意 02:03:40 - 02:03:42: の2つについて話すことができて興奮しています 02:03:42 - 02:03:44: 好きな話題を一気に 02:03:44 - 02:03:47: 機械知能とロボット 02:03:47 - 02:03:49: 彼らはかなりうまくいっていますが、彼らは 02:03:49 - 02:03:51: あなたが間違いなくできる同じことではありません 02:03:51 - 02:03:53: 他なしで1つを持っている 02:03:53 - 02:03:55: 最初にいくつかの免責事項があります。 02:03:56 - 02:03:57: 人間レベルの答えを教えてください 02:03:59 - 02:04:01: 私はそれを持っていたらそうしますが、私は持っていません 02:04:02 - 02:04:04: 次に私個人の意見です 02:04:04 - 02:04:06: 彼らは間違いなく誰のものでもありません 02:04:06 - 02:04:08: 現在または以前の雇用主 02:04:08 - 02:04:09: そしてそれらは多くのものを反映していません 02:04:09 - 02:04:11: 分野の専門家 02:04:11 - 02:04:15: 巨大な塩の粒でそれらを取る 02:04:15 - 02:04:17: それらが役に立つなら、あなたは大歓迎です 02:04:18 - 02:04:21: そうでない場合は破棄してください 02:04:22 - 02:04:25: 私があなたに話そうとしているこの物語 02:04:25 - 02:04:27: 厳密ではない 02:04:27 - 02:04:29: 方程式はありません 02:04:30 - 02:04:33: そして、私はちょうど開始するつもりでした 02:04:33 - 02:04:36: 議論と養育 02:04:36 - 02:04:39: このプレゼンテーション全体を通して、 02:04:39 - 02:04:41: インテリジェンスについて話している 02:04:41 - 02:04:43: 私が作業と定義 02:04:43 - 02:04:45: 提案することは、それがの組み合わせであるということです 02:04:45 - 02:04:47: どれだけできるか、どれだけうまくできるか 02:04:49 - 02:04:52: 理想的には、あなたは非常に優れている可能性があります 02:04:52 - 02:04:53: ただ一つのことであり、それではない 02:04:56 - 02:04:58: また、多くのことを行うことができますが、 02:04:58 - 02:05:00: それらはすべて非常に貧弱であり、そうではありません 02:05:00 - 02:05:02: その知的な 02:05:02 - 02:05:04: 知性は存在の組み合わせです 02:05:04 - 02:05:06: 多くのことを行うことができ、それらを行うことができます 02:05:08 - 02:05:10: これは関数の定義です 02:05:12 - 02:05:14: 他にもたくさんの可能性があります 02:05:14 - 02:05:16: 定義 それらのいくつかは測定可能です 02:05:16 - 02:05:19: 実験的で、できないものもある 02:05:19 - 02:05:22: 特定の定義には利点があります 02:05:22 - 02:05:24: それを 02:05:24 - 02:05:28: 私たちができる測定可能な一連のタスク 02:05:28 - 02:05:30: 少なくとも理論上はそうだから 02:05:30 - 02:05:32: これにより、 02:05:32 - 02:05:34: 機械に関する科学的議論 02:48:27 - 02:48:29: レベルインテリジェンス 02:05:36 - 02:05:38: 仮説を立てることができます 02:05:38 - 02:05:41: 潜在的に改ざんする 02:05:41 - 02:05:42: そしてそれは私たちが相対を比較することを可能にします 02:05:42 - 02:05:45: 2 つの別々のエージェントの知性 02:05:45 - 02:05:49: 要するに、それは実用的で便利です 02:05:49 - 02:05:50: 間違いなく何人かはそれを見つけるでしょう 02:05:50 - 02:05:53: 哲学的に満足できない 02:05:53 - 02:05:55: それは別の会話ですが、 02:05:55 - 02:05:56: 私は別のものを持っていることを嬉しく思います 02:05:59 - 02:06:01: 偽の数学を使用して、私たちはそれを言うことができます 02:06:01 - 02:06:03: 知性はパフォーマンス時間に等しい 02:06:05 - 02:06:07: 私たちがしていないので、それはただの偽物です 02:06:07 - 02:06:10: 定義されたパフォーマンスまたは一般性はまだ 02:06:10 - 02:06:12: しかし、私たちがそうすると仮定すると、あなたは想像することができます 02:06:12 - 02:06:13: それらをプロットする 02:06:13 - 02:06:15: そしてそれらを次のような軸のセットに置きます 02:06:18 - 02:06:20: 定量的に定義していません 02:06:20 - 02:06:22: 人間のパフォーマンス 02:06:22 - 02:06:24: 私が提案したいこと 02:06:24 - 02:06:26: それですか 02:06:26 - 02:06:28: 人間のパフォーマンスは、 02:06:28 - 02:06:32: 人間の専門家は何かをすることができます 02:06:32 - 02:06:34: これはたくさんの量で測定できます 02:06:34 - 02:06:35: 違う方法 02:06:37 - 02:06:38: エラー率 02:06:39 - 02:06:42: タスクの実行に必要な時間 02:06:42 - 02:06:45: タスクを習得するのに必要な時間 02:06:45 - 02:06:47: 必要なデモンストレーションの数 02:06:47 - 02:06:49: 課題を学ぶ前に 02:06:49 - 02:06:51: エネルギー量 02:06:51 - 02:06:55: タスクを実行するときに消費される 02:06:55 - 02:06:56: パフォーマンスの主観的判断 02:06:56 - 02:06:59: 人間の審査員団から 02:06:59 - 02:07:02: 誰かが何かをする速さ 02:07:02 - 02:07:04: パフォーマンスには多くの側面があります 02:07:04 - 02:07:06: 私は特定しようとはしません 02:07:06 - 02:07:08: ここにそれらすべてを定量化します。私はそれらをリストするだけです 02:07:08 - 02:07:10: 私たちが検討していることを説明するために 02:07:10 - 02:07:22: 広い意味でのパフォーマンス 02:07:22 - 02:07:24: 私たちは幅広いパフォーマンスを考慮しています 02:07:24 - 02:07:27: 狭い機械ではなく感覚 02:07:27 - 02:07:32: 学習精度リーダーボード感覚 02:07:32 - 02:07:34: 人間レベルの性能を考えれば 02:07:34 - 02:07:36: 私たちができるベースラインの何かになるために 02:07:36 - 02:07:39: それを x 軸に配置してから切り刻む 02:07:39 - 02:07:41: 残りの軸は等間隔で 02:07:41 - 02:07:43: これを対数目盛にします 02:07:44 - 02:07:45: 非常に広い範囲を比較できるようにする 02:07:45 - 02:07:47: 公演の 02:07:47 - 02:07:50: この軸に沿った等しいステップは、 02:07:50 - 02:07:57: 変化の等倍係数 02:07:57 - 02:07:59: 人間レベルの一般性はすべてのセットです 02:07:59 - 02:08:01: 人間ができる仕事 02:08:01 - 02:08:03: そして着手した 02:08:03 - 02:08:05: これらには次のようなものが含まれます 02:08:05 - 02:08:08: 物語を書く パイを作る 02:08:08 - 02:08:10: 都市の建設 02:08:10 - 02:08:12: 情報の収集と伝達 02:08:12 - 02:08:14: 世界中の 02:08:14 - 02:08:16: の起源を探ることさえできます。 02:08:18 - 02:08:22: それは非常に幅広い一連の活動です 02:08:22 - 02:08:25: 人間レベルの一般性を表現できる 02:08:25 - 02:08:28: Y軸上 02:08:28 - 02:08:30: おおよそ、これはすべてのタスクのセットです 02:08:30 - 02:08:34: 人間または人間のグループができること 02:08:34 - 02:08:36: y 軸を次のように対数にします。 02:08:37 - 02:08:39: したがって、等間隔は 10 の因数です 02:08:39 - 02:08:41: パフォーマンスのどちらかで 02:08:41 - 02:08:43: に応じて乗算または除算 02:08:43 - 02:08:47: 上に移動するか下に移動するか 02:08:47 - 02:08:49: したがって、人間の知性は概念的に 02:08:49 - 02:08:51: 面積で表される 02:08:51 - 02:08:53: それが伴う 02:08:53 - 02:08:57: この時点で 02:08:57 - 02:08:59: 理由はないことを指摘したいだけです 02:08:59 - 02:09:01: 機械がそうしないかもしれないと信じる 02:09:01 - 02:09:04: 一部の領域で人間のパフォーマンスを超える 02:09:04 - 02:09:07: 人間にはいくつもの限界がある 02:09:07 - 02:09:09: 私たちのやり方に組み込まれています 02:09:09 - 02:09:10: 私たちの知性を達成した 02:09:12 - 02:09:14: 非常に有用だったかもしれないもの 02:09:14 - 02:09:16: 1点または広く役立つかもしれませんが、 02:09:16 - 02:09:18: 今はプッシュするのに役に立たないかもしれません 02:09:18 - 02:09:20: 知能の限界 02:09:20 - 02:09:21: のようなもの 02:09:22 - 02:09:23: 限られた注意 02:09:23 - 02:09:26: 本能的な衝動 02:09:26 - 02:09:29: 私たちのあらゆる部分がいかに疲れているか 02:09:29 - 02:09:31: 認知バイアスのホスト 02:09:32 - 02:09:34: 私たちの間に距離を置く 02:09:34 - 02:09:36: 完全に合理的または完全に 02:09:36 - 02:09:43: 効率的または最適な動作 02:09:43 - 02:09:45: 比較すると、マシンはより多くの 02:09:45 - 02:09:47: 受けられる育成環境 02:09:48 - 02:09:50: 彼らは進化する必要はありません 02:09:50 - 02:09:54: 彼らを励ますために私たちができることはすべて 02:09:54 - 02:09:56: 今、あなたは想像することができます 02:09:56 - 02:09:59: パフォーマンスの一般性軸で 02:09:59 - 02:10:00: 別のエージェント 02:10:01 - 02:10:04: よりもはるかに多くのタスクを実行できます 02:10:04 - 02:10:07: 人間はそれらすべてを行いますが 02:10:07 - 02:10:10: 人間よりも貧弱なので 02:10:10 - 02:10:11: このように見えるかもしれません 02:10:11 - 02:10:14: その三角形の下の面積 全体 02:10:14 - 02:10:16: 知性はまだ匹敵するだろう 02:10:16 - 02:10:17: 人間のものに 02:10:17 - 02:10:19: だから私たちはそれを人間レベルと呼ぶでしょう 02:10:19 - 02:10:21: 知性も 02:10:21 - 02:10:25: できるエージェントを想像することもできます 02:10:25 - 02:10:27: 人間が行うタスクのサブセットですが、 02:10:27 - 02:10:30: それらを非常に良くするので、 02:10:30 - 02:10:33: その長方形の下の面積も 02:10:33 - 02:10:36: 人間と同じ 02:10:36 - 02:10:40: やはり人間レベルの知性 02:10:40 - 02:10:42: これらすべての集合を取ると 02:10:42 - 02:10:45: ほぼ同じエリアを持つエージェント 02:10:45 - 02:10:48: 彼らの知性長方形の下で 02:10:48 - 02:10:50: 次に、この曲線を表します 02:10:50 - 02:10:52: 人間レベルの知性 02:10:52 - 02:10:55: その曲線に沿って落ちるすべてのエージェント 02:10:55 - 02:10:58: 人間のあらゆるエージェントに匹敵する 02:10:58 - 02:11:00: その下と左に 02:11:00 - 02:11:03: インテリジェンスとエージェントまで 02:11:04 - 02:11:08: 超人的な知性 02:11:08 - 02:11:09: いくつかのエージェントを見てみましょう 02:11:09 - 02:11:11: よく知っているかもしれません 02:11:11 - 02:11:13: 彼らはこのスキームに陥ります 02:11:14 - 02:11:16: 胸部飛行機のコンピューターが登場しました 02:11:16 - 02:11:19: 30年もの間、ええと、これは 02:11:19 - 02:11:21: コンピューターでチェスをする世界チャンピオン 02:11:21 - 02:11:23: ほぼ30年間存在しています 02:11:23 - 02:11:26: IBMのディープ・ブルーがゲイリー・カスパロフを打ち負かす 02:11:28 - 02:11:31: これは、人々が引き受けた仕事でした 02:11:31 - 02:11:33: コンピュータは非常に苦労するでしょう 02:11:34 - 02:11:36: それには計画が含まれていました 02:11:36 - 02:11:39: あなたの戦略的思考のメンタルモデル 02:11:41 - 02:11:44: それはのまさにピークを迎えているようだった 02:11:44 - 02:11:46: 人間の認知 02:11:46 - 02:11:48: そして、そのようなことはありそうにないように思われました 02:11:48 - 02:11:50: できた 02:11:50 - 02:11:53: 派手な計算機によって、しかし 02:11:53 - 02:11:54: やった 02:11:54 - 02:11:56: そして今、チェスプログラムがあなたの 02:11:56 - 02:11:58: 電話はディープブルーとほぼ同じことができます 02:12:00 - 02:12:01: 現在の最先端技術は 02:12:01 - 02:12:04: を持つstockfishと呼ばれるプログラム 02:12:04 - 02:12:07: チェスのスキルのようなエロ評価 02:12:08 - 02:12:10: 34 47の。 02:12:10 - 02:12:13: これをトップの人間と比較してください 02:12:13 - 02:12:14: ええと、史上最高評価の人間のプレーヤー 02:12:14 - 02:12:16: マグナス・カールセン 02:12:16 - 02:12:20: 2882​​を達成したのは誰ですか 02:12:20 - 02:12:22: プログラムと人間は平等ではない 02:12:22 - 02:12:26: 匹敵する 02:12:26 - 02:12:27: 干し魚が 02:12:27 - 02:12:30: コードを自由に使用できるオープンソース プロジェクト 02:12:30 - 02:12:31: 利用可能で、多数の 02:12:31 - 02:12:35: 世界中に散らばる貢献者 02:37:31 - 02:37:34: 今、一般性の観点から 02:12:40 - 02:12:42: チェスのルールを理解している 02:12:42 - 02:12:45: 実際、それはそれらを非常によく理解しています 02:12:45 - 02:12:48: たくさんのヒントとヒントがあり、 02:12:48 - 02:12:50: 人間によって組み込まれたトリック 02:12:50 - 02:12:53: チェス特有の 02:12:53 - 02:12:56: ポイント制を採用して評価しています 02:12:57 - 02:12:58: 彼らがどこにいて、何に基づいて 02:12:58 - 02:13:01: ゲームのステージは 02:13:01 - 02:13:04: エンドゲームの完全なテーブルを 1 回使用します 02:13:04 - 02:13:05: 上に残っているのはほんの数個です 02:13:06 - 02:13:08: 方法の可能性の数 02:13:08 - 02:13:10: ゲームがプレイされるのは十分に少ない 02:13:10 - 02:13:12: それらは完全に列挙することができます 02:13:12 - 02:13:14: 検索もなければ解決もありません 02:13:14 - 02:13:16: 基本的に見上げているだけです 02:13:16 - 02:13:19: 巨大なテーブルと何をすべきかを考え出す 02:13:20 - 02:13:22: それぞれに手動で調整された戦略があります 02:13:22 - 02:13:24: ゲームのフェーズ 02:13:24 - 02:13:26: そしてコンピュータがすることは 02:13:26 - 02:13:29: ツリー探索を使用して未来を評価する 02:13:30 - 02:13:33: 移動の各選択は、この上の分岐です 02:13:33 - 02:13:36: 木であり、それぞれを見て言うことができます 02:13:36 - 02:13:39: 考えられる結果は何ですか 02:13:39 - 02:13:41: それらの結果のそれぞれについて、 02:13:41 - 02:13:43: 対戦相手が行うことができる可能な動き 02:13:43 - 02:13:45: それらの結果のそれぞれは、私のものは何ですか 02:13:45 - 02:13:47: 可能な応答 02:13:47 - 02:13:50: そして、この分岐を完全に下ることによって 02:13:50 - 02:13:51: 木とすべてを見ている 02:13:53 - 02:13:56: プログラムはそれを理解することができます 02:13:56 - 02:13:58: その最良の選択は何ですか 02:13:58 - 02:14:01: ストックフィッシュを賢くするもの 02:14:01 - 02:14:03: そのゲームが得意で、非常に得意です 02:14:03 - 02:14:05: この木を剪定し、移動を無視します 02:14:05 - 02:14:07: 良い結果につながる可能性は低い 02:14:07 - 02:14:11: 終了し、それらをあまり探索しない 02:14:11 - 02:14:13: しかし、すべて語った 02:14:14 - 02:14:17: プログラムは何でもかなり役に立たない 02:14:17 - 02:14:19: それはチェスではありません 02:14:19 - 02:14:22: 一般とは逆です 02:14:22 - 02:14:24: だから私たちのプロットで 02:14:24 - 02:14:26: 私たちはチェスを人間よりもはるかに上に置きます 02:14:26 - 02:14:28: レベルのパフォーマンス 02:14:28 - 02:14:32: しかし、一般性軸でも非常に低い 02:14:32 - 02:14:35: 今それをええと比較してください 02:14:36 - 02:14:38: ボードゲームも 02:14:38 - 02:14:40: あなたがそれに慣れていないなら、彼らは 02:14:40 - 02:14:43: 19 x 19 のグリッドで対戦相手が交代 02:14:43 - 02:14:45: 白と黒の石を置く 02:14:45 - 02:14:48: ルールは実際にはいくつかの点で 02:14:48 - 02:14:51: あなたが選ぶ各ターンでチェスよりも簡単です 02:14:51 - 02:14:55: 石を置くジャンクション 02:14:55 - 02:14:58: 今は戦略ですが、一部の人は主張しています 02:14:58 - 02:14:59: 偶数です 02:14:59 - 02:15:01: より複雑に、より重要に 02:15:04 - 02:15:06: それは間違いなく真実です 02:15:06 - 02:15:09: より可能なボード構成です 02:15:09 - 02:15:12: チェスには 8 x 8 の盤があります 02:15:12 - 02:15:14: go には 19 x 19 のボードがあります 02:15:14 - 02:15:16: チェスの各駒には小さな 02:15:16 - 02:15:19: 所定のモーション数 02:15:19 - 02:15:22: 任意の石と碁を任意の場所に配置できます 02:15:22 - 02:15:24: オープンジャンクション 02:15:24 - 02:15:27: そのため、ツリー検索を行うとき 02:15:27 - 02:15:30: 移動回数 02:15:31 - 02:15:34: チェスよりもはるかに速く 02:15:34 - 02:15:38: 2年前にも関わらず 02:15:41 - 02:15:44: deepmind の研究者によって構築されました 02:15:45 - 02:15:49: イ・シドル プロ九段選手 02:15:49 - 02:15:52: プロの九段は彼を入れるだろう 02:15:52 - 02:15:57: 囲碁界のオールスター 02:15:57 - 02:15:59: それ以降のバージョンの alphago master は 02:16:00 - 02:16:03: 48.58 の elo 評価で計時 02:16:03 - 02:16:05: これを最高評価の人間と比較してください 02:16:05 - 02:16:08: 評価の高いパク ジョンウォン選手 02:16:11 - 02:16:13: 最高の選手を打ち負かしただけでなく 02:16:13 - 02:16:16: 世界の、しかし今ではすでに非常に 02:16:16 - 02:16:19: 健全なマージン 02:16:19 - 02:16:20: 今、私たちが述べたように 02:16:20 - 02:16:22: プログラムは囲碁のルールを理解している 02:16:22 - 02:16:24: または囲碁のルールを知っている 02:16:24 - 02:16:26: ツリー検索を使用して評価します 02:16:28 - 02:16:30: 非常に多くの可能なボードがあるため 02:16:30 - 02:16:31: 構成ですが、記憶できません 02:16:32 - 02:16:35: 畳み込みニューラルを使用するため 02:16:35 - 02:16:38: 一般的な構成を学習するためのネットワーク 02:16:38 - 02:16:41: そして最も重要なことは、それができることです 02:16:41 - 02:16:43: 正確ではないパターンを参照してください 02:16:43 - 02:16:45: 繰り返されますが、 02:16:45 - 02:16:46: 前に見た 02:16:46 - 02:16:48: これは重要なイノベーションです 02:16:48 - 02:16:50: 畳み込みに戻ります 02:16:50 - 02:16:54: 数分でニューラル ネットワーク 02:16:54 - 02:16:58: また、強化学習を使用します 02:16:58 - 02:17:00: 学習するヒューマン ゲームのライブラリ 02:17:00 - 02:17:02: 動きは良い 02:17:02 - 02:17:04: 強化学習 02:17:05 - 02:17:07: 非常に簡単な条件は 02:17:07 - 02:17:10: 構成を見ている 02:17:12 - 02:17:13: そして結果 02:17:13 - 02:17:15: そしてパターンを学ぶ 02:17:15 - 02:17:17: 私が取る場合、特定の構成のために 02:17:17 - 02:17:19: 行動を起こすと良いことが起こる 02:17:19 - 02:17:21: アクション b 悪いことが起こりやすい 02:17:22 - 02:17:24: それらのパターンを学んだ後、次は 02:17:24 - 02:17:26: 構成を見るとき 02:17:26 - 02:17:28: 私は善につながる行動を取ることができます 02:17:30 - 02:17:33: ええと、強化学習を使用して 02:17:33 - 02:17:35: 人間のゲームのライブラリ 02:17:35 - 02:17:38: アルファゴをブートストラップして学習させます 02:17:38 - 02:17:41: 人間の遊びと人間の歴史から 02:17:41 - 02:17:45: 始めるための洞察 02:17:45 - 02:17:47: しかし干し魚のようにそれは役に立たない 02:17:47 - 02:17:48: 行かないもの 02:17:48 - 02:17:51: そのため、許可するいくつかのトリックがありますが 02:17:51 - 02:17:53: より一般的に言えば、それはまだ非常に 02:17:53 - 02:17:54: その中で狭い 02:17:54 - 02:17:57: アプリケーションなので、私たちのプロットに置くかもしれません 02:17:57 - 02:18:00: ここでも人間のレベルをはるかに超えています 02:18:01 - 02:18:03: しかし、それでも非常に 02:18:03 - 02:18:08: 一般性軸で低い 02:18:08 - 02:18:10: 今すぐ別の場所にジャンプしましょう 02:18:10 - 02:18:12: カテゴリ全体 02:18:13 - 02:18:15: 画像分類 02:18:15 - 02:18:17: と呼ばれる素晴らしいデータセットがあります 02:18:18 - 02:18:20: 何千もの画像があります 02:18:20 - 02:18:25: 人の手で分類 02:18:25 - 02:18:29: 1,000 の事前定義されたカテゴリに 02:18:29 - 02:18:32: これらのカテゴリには家庭用品が含まれます 02:18:32 - 02:18:34: 車とドアと椅子が含まれています 02:18:34 - 02:18:37: 動物 キリン サイ 02:18:37 - 02:18:39: たとえば、 02:18:40 - 02:18:42: 多くの異なる種の犬 02:18:43 - 02:18:45: 取るのは簡単なことではありません 02:18:45 - 02:18:48: イメージして正確に分類し、 02:18:48 - 02:18:51: 実際、これに関する典型的な人間のスコアは 02:18:51 - 02:18:53: 約 5% の誤差約 1 アウト 02:18:54 - 02:18:56: 人間が分類する 20 枚の画像のうち 02:18:58 - 02:19:00: だから大変です 02:19:02 - 02:19:05: 2011年に大規模な 02:19:05 - 02:19:08: 視覚認識チャレンジ 02:19:08 - 02:19:09: チームは彼らの 02:19:09 - 02:19:13: これらの画像を分類するためのアルゴリズム 02:19:13 - 02:19:16: そして2011年には、最高のものは26を獲得しました 02:19:16 - 02:19:19: パーセントエラーなので、約4分の1 02:19:19 - 02:19:21: 画像はまだ 3 つに分類されていました 02:19:21 - 02:19:23: 4つに1つが正解でした 02:19:23 - 02:19:27: かなり素晴らしいパフォーマンス 02:19:27 - 02:19:30: 毎年、このエラー率は 02:19:30 - 02:19:32: 半分近く 02:19:32 - 02:19:35: これは驚異的な進歩率です 02:19:36 - 02:19:39: ついに2015年にエラー率が低下しました 02:19:39 - 02:19:41: 人間よりもコンピュータープログラムを持っていた 02:19:41 - 02:19:44: 人間よりも優れた画像分類 02:19:46 - 02:19:49: 現在2017年に、より最近の1つ 02:19:49 - 02:19:51: チームの半分以上の大会 02:19:51 - 02:19:54: 5%未満の間違いでした 02:19:55 - 02:19:57: 現在、機械は定期的に鼓動しています 02:19:57 - 02:19:59: このタスクでの人間 02:19:59 - 02:20:02: かなり印象的 02:20:02 - 02:20:04: 一般的に言えば、このタスクは 02:20:06 - 02:20:09: 難しい より一般的 より挑戦的 02:20:09 - 02:20:11: ボードゲームより 02:20:11 - 02:20:13: もっとバリエーションがあります 02:20:15 - 02:20:17: それを取得するには、畳み込みを使用します 02:20:17 - 02:20:18: ニューラル ネットワーク 02:20:19 - 02:20:23: ディープ ニューラル ネットワーク アーキテクチャ 02:20:23 - 02:20:25: 見つけるために特別に設計された 02:20:26 - 02:20:30: データの 2 次元配列で 02:20:34 - 02:20:35: チェス盤の四角 02:20:36 - 02:20:38: またはゴーボードで彼らは非常に得意です 02:20:38 - 02:20:40: そのためのパターンを見つけることは 02:20:40 - 02:20:44: 視覚的に表現 03:06:22 - 03:06:23: これは 02:20:47 - 02:20:49: しかし、簡単に壊れることが示されています 02:20:49 - 02:20:51: あなたが持っている一連の画像の外に 02:20:51 - 02:20:53: それを訓練する 02:20:53 - 02:20:55: あなたが見るなら、これの例を挙げるために 02:20:55 - 02:20:57: 左の右の画像で 02:20:58 - 02:21:01: 手のコラム ソープディスペンサーが見えます 02:21:01 - 02:21:04: カマキリの子犬 02:21:04 - 02:21:06: これらはすべて正しく表示された画像です 02:21:06 - 02:21:08: 畳み込みニューラルによって分類される 02:21:10 - 02:21:12: を少し加えて 02:21:12 - 02:21:14: 中央の列に示されている歪み 02:21:14 - 02:21:15: あなたが正しく見ているのは 02:21:16 - 02:21:17: ほんの少しのノイズですが、灰色です 02:21:17 - 02:21:19: 全く変化なし 02:21:19 - 02:21:22: 右の画像が得られます 02:21:22 - 02:21:23: 視覚的に私たちに 02:21:23 - 02:21:26: それらは同一に見えるか、 02:21:26 - 02:21:28: 非常によく似た 02:21:28 - 02:21:29: 若干の反り、歪みあり 02:21:31 - 02:21:33: しかし、何らかの理由でええと畳み込み 02:21:33 - 02:21:36: ニューラルネットワークが自信を持って予測 02:21:36 - 02:21:39: これらはすべてダチョウです 02:21:39 - 02:21:42: したがって、これは彼らがそうではないということではありません 02:21:42 - 02:21:45: 強力で良いが、彼らは何かを見ている 02:21:45 - 02:21:46: 私たちが見ているものとは異なります 02:21:46 - 02:21:48: それと同じように見ることを学んでいない 02:21:48 - 02:21:51: 私たちは見る 02:21:51 - 02:21:52: それ以来、壊れやすい性質 02:21:55 - 02:21:57: 他の方法で実証 02:21:58 - 02:22:01: 一部の画像では、単一のピクセルを変更します 02:22:01 - 02:22:03: 適切な値に適切なピクセルを使用できます 02:22:03 - 02:22:06: その画像の分類方法を変更する 02:22:06 - 02:22:08: 他の人は、あなたがそうではないことに気づきました 02:22:08 - 02:22:10: デジタルドメインに入る必要があります 02:22:10 - 02:22:13: 入念にデザインされたステッカーを取り、 02:22:13 - 02:22:15: それらを何かに貼り付けます 02:22:15 - 02:22:17: そのオブジェクトに自信を持ってもらいます 02:22:17 - 02:22:20: 何でもバナナに分類される 02:22:20 - 02:22:25: 私のお気に入りのデモンストレーションです 02:22:25 - 02:22:28: 物理的なプラスチックのカメ 02:22:28 - 02:22:30: 回転し、あらゆる方向から 02:22:33 - 02:22:35: 亀だと予想 02:22:35 - 02:22:37: 次に、別のものを再描画した後 02:22:38 - 02:22:40: 象徴的または代表的ではない 02:22:42 - 02:22:44: しかし、同じものを慎重に選択しました 02:22:46 - 02:22:50: 拳銃に分類される 02:22:50 - 02:22:52: これらの例が示す 02:22:53 - 02:22:56: ええと、少なくとも現在行われているように、私たちのイメージ 02:22:56 - 02:22:59: 分類の一般性は完全ではありません 02:22:59 - 02:23:01: 希望する場所 02:23:03 - 02:23:05: 人間のパフォーマンスよりも確実に高い 02:23:06 - 02:23:10: imagenetの分類ははるかに狭いです 02:23:10 - 02:23:12: 表面に見えるよりもタスク 02:23:12 - 02:23:14: かなり低く設定します 02:23:14 - 02:23:19: 一般軸 02:23:19 - 02:23:21: ここにビデオの本当に楽しい例があります 02:23:21 - 02:23:23: ゲームのパフォーマンス 02:23:23 - 02:23:24: もう一度 02:23:24 - 02:23:27: ディープマインドの人々がまとめました 02:23:27 - 02:23:31: ディープ q ラーニングまたはディープ強化 02:23:31 - 02:23:33: ビデオを再生するための学習アーキテクチャ 02:23:33 - 02:23:35: 何についてもっと話すゲーム 02:23:35 - 02:23:37: それは一瞬ですが、彼らがしたことは 02:23:37 - 02:23:39: 彼らは49クラシックを取りました 02:23:42 - 02:23:44: アルゴリズムにただ見てもらいましょう 02:23:44 - 02:23:48: ピクセルとランダムな動きをする 02:23:48 - 02:23:50: アルゴリズムはこれが 02:23:50 - 02:23:51: 移動後の移動のはずだった 02:23:51 - 02:23:53: 右またはジャンプまたはちょうど取ったシュート 02:23:54 - 02:23:58: そして強化学習を使って 02:23:58 - 02:24:00: 結果から学び、次に学ぶ 02:24:00 - 02:24:03: 私がこれと私を見るとき、ああのこのパターン 02:24:03 - 02:24:04: これを行う 02:24:04 - 02:24:06: 何か良いことが起こるか、 02:24:06 - 02:24:07: 何か悪いことが起こったり、 02:24:07 - 02:24:10: ニュートラルが起こる 02:24:10 - 02:24:13: それを十分に長く行った後 02:24:13 - 02:24:15: それはパターンを学んだ 02:24:15 - 02:24:19: 正しいことを選択できるようにする 02:24:19 - 02:24:25: そして、これらの 49 試合のうち 29 試合で、 02:24:26 - 02:24:29: 人間のエキスパートレベルのプレイ 02:24:29 - 02:24:31: とても印象的だったので、これは 02:24:31 - 02:24:33: 写真を見て言うだけでなく 02:24:33 - 02:24:35: これはこれを見ている猫です 02:24:35 - 02:24:36: その瞬間の写真と言う 02:24:36 - 02:24:38: この特定のインスタンスは正しいことです 02:24:38 - 02:24:41: することはジャンプです 02:24:41 - 02:24:43: そしてジャンプで 02:24:43 - 02:24:45: それはイメージを変え、そして持っている 02:24:45 - 02:24:47: 新しい構成に対応し、 02:24:47 - 02:24:49: それを何度も何度も繰り返して、 02:24:49 - 02:24:54: これを人間よりうまくやる 02:24:54 - 02:24:57: これの他の部分は20があったということです 02:24:57 - 02:25:00: 当時、それがよりうまくいかなかったゲーム 02:25:00 - 02:25:02: 人間より 02:25:02 - 02:25:04: 畳み込みニューラルを使用した後 02:25:04 - 02:25:07: ピクセルパターンを学習するネットワーク 02:25:07 - 02:25:09: これは完全に適しています 02:25:09 - 02:25:11: ピクセルが大きくて粗い 02:25:11 - 02:25:13: 変わらないノイズ 02:25:13 - 02:25:15: パターンは明確なので、 02:25:15 - 02:25:17: アルゴリズムが見ているのは非常に近い 02:25:17 - 02:25:19: 私たち人間が見ているもの 02:25:19 - 02:25:21: そして、強化を使用したユニの後 02:25:21 - 02:25:23: とるべき行動を学ぶことを学ぶ 02:25:23 - 02:25:25: それぞれの状況で 02:25:25 - 02:25:26: これらのゲームのうち 20 はできませんでした 02:25:26 - 02:25:29: 人間のパフォーマンスに合わせる 02:25:29 - 02:25:31: そしてそれらのゲームのパターンは 02:25:31 - 02:25:33: 彼らはより長い期間を必要とする傾向がありました 02:25:35 - 02:25:38: それらの1つはms pac-manであり、もし 02:25:38 - 02:25:40: あなたは自分が知っていることをプレイしたことがあります 02:25:40 - 02:25:42: 迷路のドットを全部食べようとする 02:25:42 - 02:25:44: 追ってくるオバケを避けながら 02:25:45 - 02:25:48: それはいくつかのルートを計画することを含みます 02:25:48 - 02:25:51: 幽霊の居場所を予想して前を向く 02:25:51 - 02:25:52: なるだろう 02:25:52 - 02:25:54: 得られないものがたくさん 02:25:54 - 02:25:56: 単一のスナップショット 02:25:56 - 02:26:01: 数歩先を考えずに 02:26:01 - 02:26:03: 現在の状態では、このアルゴリズム 02:26:03 - 02:26:04: それをしなかった 02:26:04 - 02:26:06: そして実際に 02:26:06 - 02:26:07: モンテスマズと呼ばれるゲームで最も貧弱 02:26:07 - 02:26:09: 復讐にはもっと広範囲が必要でした 02:26:10 - 02:26:11: ある場所に行くことを計画し、 02:26:11 - 02:26:13: あなたが行くことができるようにオブジェクトをつかむ 02:26:13 - 02:26:15: 別の場所でドアを開ける 02:26:15 - 02:26:18: そして、コンピューターはできませんでした 02:26:18 - 02:26:22: それらのつながりを作る 02:26:22 - 02:26:24: ビデオゲームをプロットに追加します 02:26:25 - 02:26:26: 再びイメージよりも一般的 02:26:26 - 02:26:28: 分類はさらに進んでいます 02:26:28 - 02:26:30: タスクはより広い 02:26:30 - 02:26:35: パフォーマンスはほぼ人間レベル 02:26:35 - 02:26:38: ここでパターンに気付くかもしれません 02:26:38 - 02:26:40: 直線または曲線におおよそフィットし、 02:26:40 - 02:26:44: このパターンが続くことがわかります 02:26:44 - 02:26:47: 機械翻訳を見て 02:26:47 - 02:26:49: テキストと 1 つの言語からの変更 02:26:49 - 02:26:50: 別の人に 02:26:50 - 02:26:53: オンライン翻訳者に行ったことがある場合 02:26:53 - 02:26:56: フレーズを入力したり、フレーズをコピーしたりしました 02:26:56 - 02:26:57: あなたがよく知らなかった言語から 02:26:57 - 02:27:00: あなたがいたものに 02:27:00 - 02:27:02: あなたはおそらくそれに気付くでしょう 02:27:02 - 02:27:05: 翻訳は意外と得意です 02:27:05 - 02:27:07: 感覚をつかむ 02:27:08 - 02:27:10: 5 年前でさえ完全な科学でした 02:27:10 - 02:27:12: フィクションでこれを行うことができます 02:27:12 - 02:27:14: 信頼できる方法 02:27:14 - 02:27:16: あなたもおそらく 02:27:16 - 02:27:18: 結果は何もないことに注意してください 02:27:18 - 02:27:20: 母国語スピーカーは 02:27:20 - 02:27:23: 言う可能性が高い 02:27:23 - 02:27:24: っていうことは 02:27:24 - 02:27:25: 大丈夫 間違いなく正しい 02:27:27 - 02:27:28: しかし、それは遠いです 02:27:28 - 02:27:31: 完璧な今、本当に印象的なこと 02:27:32 - 02:27:34: これについての私は、 02:27:34 - 02:27:36: アートと言語の翻訳 02:27:37 - 02:27:40: 百以上の言語と代わりに 02:27:40 - 02:27:42: 変換元の特定のモデルを持つ 02:27:42 - 02:27:45: 各言語から各言語へ 02:27:45 - 02:27:48: これらの言語はすべてに翻訳されています 02:27:49 - 02:27:51: ユーバー中間表現 02:27:51 - 02:27:54: その後、翻訳して戻すことができます 02:27:54 - 02:27:55: これらの百プラスのいずれかに 02:27:55 - 02:27:57: すべての言語にすべての言語 02:27:59 - 02:28:02: その範囲は本当に 02:28:06 - 02:28:07: これを行うために今 02:28:07 - 02:28:10: それは長期短期記憶を使用します 02:28:10 - 02:28:14: ニューラルネットワークであるlstm 02:28:14 - 02:28:16: アーキテクチャと実際に使用する 02:28:17 - 02:28:19: ディープ ニューラル ネットワーク 02:28:19 - 02:28:20: コンサートで 02:28:20 - 02:28:22: 一つに 02:28:22 - 02:28:24: 入力の一部を慎重に無視する 02:28:24 - 02:28:27: 何を覚えるかを選択する 02:28:27 - 02:28:28: 何をいつ選ぶかを忘れる 02:28:28 - 02:28:30: 何を渡すか 02:28:30 - 02:28:32: かなりの計算量があります 02:28:33 - 02:28:35: このアーキテクチャはいくつかの 02:28:35 - 02:28:38: それらのレベル 02:28:38 - 02:28:42: 努力の量と 02:28:44 - 02:28:46: これで一般的にスローされます 02:28:48 - 02:28:50: メトリクスの 1 つを次のように使用する場合 02:28:50 - 02:28:53: 効率が少し上がる可能性があります 02:28:53 - 02:28:56: 少しヒットしたと見なされます 02:28:56 - 02:28:59: 不正確さに加えて 02:29:01 - 02:29:04: 注意メカニズムそう 02:29:04 - 02:29:06: 私は以前に注意を呼びかけました 02:29:06 - 02:29:09: 人間のパフォーマンスの制限の可能性 02:29:09 - 02:29:12: しかし、それはまた、本当に便利であることが証明されています 02:29:13 - 02:29:15: 大量の物を扱うとき 02:29:17 - 02:29:18: 過度に 02:29:19 - 02:29:21: 深く見て 02:29:21 - 02:29:23: 事前フィルタリングとフォーカスによって 02:29:23 - 02:29:26: 役立つ可能性が最も高いものを絞り込む 02:29:26 - 02:29:28: 次に、アルゴリズムでははるかに多くのことができます 02:29:28 - 02:29:31: それを処理する方法が効率的 02:29:33 - 02:29:35: 機械翻訳用 02:29:36 - 02:29:38: パフォーマンスはまだ人間に及ばない 02:29:38 - 02:29:40: そして、 02:29:42 - 02:29:44: 野心的な範囲 02:29:44 - 02:29:46: それは 02:29:46 - 02:29:48: 一般性軸で少しステップアップ 02:29:48 - 02:29:50: 彼らのパフォーマンスに少しヒット 02:29:51 - 02:29:53: 翻訳はまだ非常に小さな部分です 02:29:53 - 02:29:55: 人間が行うすべてのことの 02:29:56 - 02:29:57: 私は間違いなくこれがもっとだと言うでしょう 02:29:57 - 02:30:01: ビデオゲームをするよりも一般的 02:30:01 - 02:30:04: レコメンデーションを検討中 02:30:04 - 02:30:05: だからあなたがあなたの最後のことを振り返ると 02:30:06 - 02:30:09: 時間通りのオンラインリアルでの経験 02:30:09 - 02:30:12: オンライン小売業者 02:30:13 - 02:30:15: あなたが得た推奨事項は 02:30:16 - 02:30:18: たぶん10人に1人は本当に本当に 02:30:19 - 02:30:21: 他のいくつかは近くにありましたが近くにありました 02:30:21 - 02:30:23: ミスと他のいくつかは 02:30:23 - 02:30:26: 明らかに左翼手でアウト 02:30:28 - 02:30:30: これは難しいようにまだかなり良いです 02:30:30 - 02:30:33: ええと戻ったように想像できればタスク 02:30:33 - 02:30:35: に行くビデオ店があったとき 02:30:35 - 02:30:36: 友達と一緒にビデオ店に行ってみる 02:30:36 - 02:30:37: 推測する 02:30:37 - 02:30:39: あなたの友達 あなたが知っていた友達 02:30:40 - 02:30:42: あなたが特定の夜に見たいと思うでしょう 02:30:42 - 02:30:44: あなたがするのが難しいことを知っている 02:30:44 - 02:30:46: 1つや3つ、または1つよりも優れています 02:30:46 - 02:30:47: そして4 02:30:47 - 02:30:50: だから、10人に1人はひどくないことを知っています 02:30:50 - 02:30:53: または単に球場 02:30:53 - 02:30:56: これらの中で仮定するのが一般的です 02:30:56 - 02:30:59: 順序を問わないアルゴリズム 02:30:59 - 02:31:01: だからそれはあなたが持っているすべてのものを見るだけです 02:31:01 - 02:31:02: 今まで買った 02:31:02 - 02:31:05: 去年の今日昨日 02:31:05 - 02:31:06: これらがどのように機能するかについては考えていません 02:31:06 - 02:31:08: 物事が関連している、またはあなたが何をするかもしれないか 02:31:08 - 02:31:10: 持っている、または必要な数、または方法 02:31:10 - 02:31:12: 以前購入したもの 02:31:12 - 02:31:14: 必要なものに関連している可能性があります 02:31:15 - 02:31:19: 人々が購入したものを見るだけです 02:31:19 - 02:31:20: 過去に 02:31:20 - 02:31:22: 一緒に買ったもの 02:31:22 - 02:31:23: それもありません 02:31:23 - 02:31:25: あなたの選択という事実に適応する 02:31:25 - 02:31:27: 時間とともに変わるかもしれないので 02:31:27 - 02:31:29: マヨネーズを一瓶買ったとしても 02:31:29 - 02:31:31: 1年前、そしてさらに16 02:31:31 - 02:31:32: 数か月前と別の数か月 02:31:32 - 02:31:34: 以前はそうではないかもしれません 02:31:34 - 02:31:35: あなたの好みが持っているという事実を追跡します 02:31:37 - 02:31:39: これらの私のお気に入りの例の1つ 02:31:39 - 02:31:40: から来た 02:31:40 - 02:31:44: 親愛なると言ったジャック・レイナーのツイッターユーザー 02:31:44 - 02:31:46: amazon 便座を買った理由は 02:31:46 - 02:31:48: 必要なもの 02:31:48 - 02:31:50: 必要ではなく欲望 02:31:50 - 02:31:53: 私はそれらを収集しません私はトイレではありません 02:31:53 - 02:31:54: シートアディクト 02:31:54 - 02:31:57: どんなに魅力的にメールを送っても 02:31:57 - 02:31:58: 私は考えるつもりはありません 02:31:58 - 02:32:01: ああ、じゃあ、あと 1 つだけ便座 02:32:01 - 02:32:06: 私は自分自身を扱います 02:32:06 - 02:32:08: そう推薦者 02:32:08 - 02:32:09: 彼らはする 02:32:10 - 02:32:12: 人間と比較して、私は主張します 02:32:12 - 02:32:15: 世界の知識が必要とすること 02:32:15 - 02:32:17: 本当にうまくやる 02:32:17 - 02:32:20: かなり深いので、ブーストします 02:32:20 - 02:32:22: 一般性スケールですが、ヒットします 02:32:22 - 02:32:26: パフォーマンスについて 02:32:27 - 02:32:30: ついにロボットにたどり着く 02:32:30 - 02:32:31: 何かが物理的にぶつかる 02:32:32 - 02:32:37: 世界の自動運転車 02:32:37 - 02:32:40: 彼らのパフォーマンスは印象的です 02:32:40 - 02:32:43: 走行マイルあたりの総消費量 02:32:43 - 02:32:46: 自動運転車の事故率は 02:32:46 - 02:32:49: 人間より低い 02:32:49 - 02:32:51: これはとても素晴らしいことです 02:32:52 - 02:32:54: 車が処理しなければならないすべてのもの 02:32:57 - 02:33:01: 歩行者 自転車乗り 02:33:01 - 02:33:02: 気象条件の変化 02:33:02 - 02:33:04: 道路状況 02:33:04 - 02:33:06: 彼らは完璧ではありませんが、 02:33:06 - 02:33:12: 驚くほど良い 02:33:12 - 02:33:15: ええと、一般性の観点から 02:33:15 - 02:33:17: いくつかあります 02:33:17 - 02:33:20: 自動運転車の一般性を低下させる 02:33:20 - 02:33:23: 彼らが最初に現れるかもしれないよりも 02:33:23 - 02:33:25: それらを作るための最大のトリック 02:33:25 - 02:33:29: 成功は困難を減らすことです 02:33:29 - 02:33:31: タスクの 02:33:31 - 02:33:35: 解の必要な一般性 02:33:35 - 02:33:36: 起こることの1つは 02:33:36 - 02:33:39: 特にトレーニング中の人間はまだ 02:33:39 - 02:33:40: いくつかの挑戦的なことを引き継がなければなりません 02:33:42 - 02:33:44: 人や車が不安になったとき 02:33:44 - 02:33:45: 何をすべきかわからないことを知らせる 02:33:45 - 02:33:49: それは人間に戻る 02:33:49 - 02:33:51: 運転中はまだきれいです 02:33:51 - 02:33:53: 複雑な作業 02:33:53 - 02:33:56: それは言うよりもまだ非常に単純です 02:33:56 - 02:33:58: 起伏の多い地形を歩く 02:33:58 - 02:34:00: ベーグルを食べながら 02:34:00 - 02:34:02: 引っ張っている犬の散歩 02:34:04 - 02:34:06: そこにはさらに多くの考慮事項があり、 02:34:06 - 02:34:07: よりもはるかに厳しいです 02:34:07 - 02:34:11: 4 で静的に安定している車 02:34:11 - 02:34:14: 平坦で大部分が路面の車輪 02:34:14 - 02:34:17: まっすぐで、ほとんどマークされています 02:34:18 - 02:34:22: 規則がきちんと定められているところ 02:34:22 - 02:34:25: タスクをさらに簡素化し、絞り込む 02:34:25 - 02:34:27: 学ぶ必要がある範囲 02:34:27 - 02:34:29: 自動運転車の運転スタイルは 02:34:29 - 02:34:31: 用心する 02:34:31 - 02:34:33: 彼らは間違いなくスピードを出す傾向がありません 02:34:33 - 02:34:36: 彼らは密接にフォローしたり向きを変えたりしない傾向があります 02:34:38 - 02:34:40: または他の多くの人間のことをします 02:34:40 - 02:34:42: ドライバーがする 02:34:42 - 02:34:46: これは絶対に良い習慣です 02:34:46 - 02:34:48: 称賛されるべきであり、モデルとして 02:34:48 - 02:34:50: 私たち全員がフォローする 02:34:50 - 02:34:52: しかし、それが意味することは、 02:34:52 - 02:34:54: 生の運転技術 02:34:54 - 02:34:57: 自動運転車に必要 02:34:57 - 02:34:58: 一般的には 02:34:58 - 02:35:03: 人間が必要とする量よりも少ない 02:35:03 - 02:35:04: また、次のことにも注意する必要があります。 02:35:04 - 02:35:06: ソリューションはカスタム設計されています 02:35:07 - 02:35:10: センサーの選択 アルゴリズム 02:35:10 - 02:35:12: すべての方法でそれらを処理するために使用されます 02:35:12 - 02:35:14: まとめられている 02:35:14 - 02:35:17: その場で更新されない 02:35:17 - 02:35:18: 集まった 02:35:18 - 02:35:20: 人間が評価する 02:35:22 - 02:35:24: それからとても 02:35:24 - 02:35:26: 注意深く慎重に 02:35:26 - 02:35:28: ヒューリスティック 方法の背後にあるルール 02:35:28 - 02:35:31: 解釈され処理されたものは 02:35:31 - 02:35:32: その後、更新され、テストされ、リリースされました 02:35:34 - 02:35:37: これは、何かを展開するのに理にかなっています 02:35:37 - 02:35:40: つまり、非常に高い結果をもたらします 02:35:43 - 02:35:45: 機械学習側からすれば 02:35:45 - 02:35:46: 解決策は実際にはそうではありません 02:35:46 - 02:35:48: 一般的なようです 02:35:48 - 02:35:51: 与えられたものに非常に固有 02:35:51 - 02:35:55: 所定のセンサーセットを搭載した車と 02:35:55 - 02:35:57: 時には特定の環境にさえ 02:35:58 - 02:36:00: 少なくともいくつかの自動運転車の一部 02:36:00 - 02:36:01: 初期の失敗 02:36:02 - 02:36:04: に配備されたことに関係していた 02:36:04 - 02:36:05: 彼らが慣れていない気候 02:36:07 - 02:36:08: そうなるまで 02:36:08 - 02:36:11: 彼らの訓練データのセットは 02:36:11 - 02:36:13: 彼らがするすべての条件 02:36:15 - 02:36:18: 彼らは人間よりもさらに狭くなります 02:36:22 - 02:36:25: タスクで考慮されるこれらすべてのこと 02:36:25 - 02:36:28: 運転全般について 02:36:28 - 02:36:30: 私は自動運転車を で評価することにしました 02:36:30 - 02:36:34: 人間より性能が低い 02:36:34 - 02:36:37: それでもその物理的相互作用とその 02:36:37 - 02:36:39: 他の人々との交流 02:36:39 - 02:36:41: 車だから 02:36:41 - 02:36:43: かなり多くのことが起こっており、間違いなくもっと多くのことが起こっています 02:36:43 - 02:36:45: 機械翻訳などよりも複雑 02:36:45 - 02:36:50: 推奨事項も 02:36:51 - 02:36:52: 人型ロボット 02:36:52 - 02:36:54: の頂点 02:36:54 - 02:36:56: クールなアプリケーション 02:36:56 - 02:36:59: ええと、まだ行っていない場合 02:36:59 - 02:37:00: インターネットにアクセスして検索する 02:37:00 - 02:37:04: バク転をしているロボットとそれをチェックしてください 02:37:04 - 02:37:07: あなたがこのようなものを見るとき、それは 02:37:07 - 02:37:09: ジャンプしやすい 02:37:09 - 02:37:12: ロボット工学が解決されたと信じる 02:37:12 - 02:37:16: ロボットが身体能力を発揮できるときのように 02:37:16 - 02:37:18: 私ができないアクロバットの 02:37:18 - 02:37:21: それから、私はそれが完了したことを意味します。私は電話する準備ができています 02:37:21 - 02:37:23: それとええと 02:37:24 - 02:37:26: ええ、それはただです 02:37:26 - 02:37:28: それは私ができない私の顔に笑顔を浮かべます 02:37:34 - 02:37:37: ええと、落下するロボットをもう一度検索します 02:37:39 - 02:37:42: あなたはのモンタージュに扱われます 02:37:43 - 02:37:46: やろうとするロボットのユーモラスなショートパンツ 02:37:46 - 02:37:47: とてもシンプルなこと 02:37:48 - 02:37:51: ドアを開けたり、空の箱を持ち上げたり 02:37:51 - 02:37:54: または立ったままで 02:37:54 - 02:37:55: そして彼らは本当に 02:37:56 - 02:37:58: これと闘う 02:38:01 - 02:38:04: システムは非常に複雑です。 02:38:04 - 02:38:06: ハードウェアとセンサーには非常に多くの機能があります 02:38:06 - 02:38:07: 進行中 02:38:07 - 02:38:09: これらのほとんどが展開されているため 02:38:09 - 02:38:12: 研究プロジェクトとして 02:38:12 - 02:38:14: これらの活動のほとんどは、 02:38:14 - 02:38:17: かなりハードコーディングされており、かなり壊れやすい 02:38:17 - 02:38:20: 彼らは多くの仮定を立てています 02:38:20 - 02:38:21: ハードウェアの性質 何が起こっているのか 02:38:22 - 02:38:23: 環境の性質上、もし 02:38:23 - 02:38:25: これらの仮定のいずれかに違反している 02:38:25 - 02:38:27: ロボットのパフォーマンス 02:38:31 - 02:38:35: その結果、ええと、ここにそれらをプロットします 02:38:35 - 02:38:37: という意味での一般性 02:38:37 - 02:38:39: 彼らが持っているものの種類 02:38:39 - 02:38:42: 全体としてまとめて経験した 02:38:43 - 02:38:45: 今は非になりつつある 02:38:46 - 02:38:47: ごくわずかな割合の 02:38:47 - 02:38:50: 人間は、それが 0.1 であることを知ることができます。 02:38:50 - 02:38:52: 多分それは0.01の間のどこかです 02:38:53 - 02:38:55: できる素晴らしいセット 02:38:57 - 02:39:00: しかし、パフォーマンスはまだ時々 02:39:00 - 02:39:07: 人間レベルに比べたら笑えるほど低い 02:39:07 - 02:39:08: ええと、できます 02:39:08 - 02:39:10: ヒューマノイド ロボットを 02:39:12 - 02:39:15: 人間にとっては 02:39:15 - 02:39:17: ここでさらに興味深いことに 02:39:17 - 02:39:21: 私たちの傾向は今では非常に明確です 02:39:21 - 02:39:24: ここには太い線が走っています 02:39:24 - 02:39:26: ほぼ平行 02:39:26 - 02:39:28: 人間レベルの知性からのオフセット 02:39:30 - 02:39:32: ソリューションとして 02:39:32 - 02:39:34: パフォーマンスも向上する傾向があります 02:39:34 - 02:39:37: 一般的でなくなる傾向があり、その逆も同様です 02:39:37 - 02:39:40: しかし、大きな一歩を踏み出すことはめったにありません 02:39:40 - 02:39:44: 人間の知性線に向かって 02:39:45 - 02:39:46: これはこれが私がクールだと思うものです 02:39:46 - 02:39:48: これがこの話の要点です 02:39:48 - 02:39:50: 私が欲しい一例があります 02:39:50 - 02:39:52: これを私の前に見せるために 02:39:52 - 02:39:54: 結論に飛びつく 02:39:54 - 02:39:57: これも深い心のプログラムです 02:39:57 - 02:40:00: アルファゼロと呼ばれる 02:40:00 - 02:40:03: だからアルファゼロはアルファゴのようなものです 02:40:05 - 02:40:07: それが知っていることはすべて行く 02:40:07 - 02:40:09: 取り出されました 02:40:09 - 02:40:11: どんなゲームのルールも知らない 02:40:11 - 02:40:14: 今は視覚的なパターンを見るだけです 02:40:14 - 02:40:17: 行動を試み、何が何であるかを見ることを学びます 02:40:17 - 02:40:22: 成功したこととそうでないこと 02:40:22 - 02:40:25: それが使用された方法はあなたが考えることができる 02:40:25 - 02:40:28: 真新しいアルファゼロインスタンス 02:40:28 - 02:40:31: ゲームプレイに関しては幼児であり、 02:40:31 - 02:40:33: 2 人のアルファ ゼロ幼児が作成され、 02:40:34 - 02:40:36: 彼らはお互いに遊び始めた 02:40:36 - 02:40:38: 他のものを学ぶことを許可されていませんでした 02:40:38 - 02:40:40: だから学んだ人は徐々に 02:40:40 - 02:40:42: 出くわすのが少しだけ良くなりました 02:40:42 - 02:40:45: それまでは偶然にいくつかの良い動き 02:40:45 - 02:40:48: の大丈夫な初心者プレーヤーになりました 02:40:50 - 02:40:52: それは自分自身を複製した 02:40:52 - 02:40:54: 2 つのうちの 1 つは、もう 1 つは学習しなかったことを学びました 02:40:54 - 02:40:56: そして彼らは最後まで遊んで遊んだ 02:40:56 - 02:40:57: の中級選手になりました 02:40:59 - 02:41:03: このクローン作成のプロセスを繰り返しました 02:41:03 - 02:41:05: 1つの学習で自分自身を再生し、 02:41:05 - 02:41:07: もう一つは 02:41:07 - 02:41:08: と使用 02:41:09 - 02:41:11: 中間ステップ 02:41:11 - 02:41:15: どんどん良くなっていく足場として 02:41:15 - 02:41:16: そしてそれが判明 02:41:16 - 02:41:18: ときに 02:41:18 - 02:41:19: このアプローチを使用して 02:41:19 - 02:41:21: 一緒に 02:41:21 - 02:41:24: 4 時間以内に、 02:41:24 - 02:41:25: 最高の人間プレーヤー 02:41:26 - 02:41:28: そして8時間以内 02:41:28 - 02:41:29: それは勝った 02:41:29 - 02:41:32: 以前の最高のコンピューター 02:41:36 - 02:41:39: のルールを構築していないため、 02:41:39 - 02:41:42: チェスも学べたゲーム 02:41:42 - 02:41:46: 現在の最高のチェスプレイを打ち負かす 02:41:46 - 02:41:49: 干し魚と別のボードゲームをプログラムする 02:41:49 - 02:41:50: 将棋と呼ばれる 02:41:50 - 02:41:53: 現在の最高の将棋になる 02:41:54 - 02:41:55: プログラムも 02:41:55 - 02:41:57: そのすべてが人間を大幅に打ち負かします 02:42:00 - 02:42:05: これはクールだから 02:42:05 - 02:42:07: パフォーマンスが向上し、 02:42:07 - 02:42:09: より一般的には、特定のものではありません 02:42:09 - 02:42:11: ボードゲームとおそらくある場合 02:42:11 - 02:42:13: 持っていた他のボードゲーム 02:42:13 - 02:42:17: 二次元グリッドと一連のルール 02:42:17 - 02:42:19: それは大したことではありませんでした 02:42:19 - 02:42:21: それらを演奏することも学ぶことができたので 02:42:22 - 02:42:24: 一般性とパフォーマンス 02:42:24 - 02:42:28: have now は両方のポイントです 02:42:28 - 02:42:29: さらに右へ 02:42:29 - 02:42:31: より高いパフォーマンス 02:42:31 - 02:42:34: よりもさらに高い一般性 02:42:34 - 02:42:36: それのオリジナル 02:42:36 - 02:42:39: からだったので、これは実際の増加です 02:42:39 - 02:42:42: その長方形の下の面積の増加 02:42:42 - 02:42:44: 知性 これはその方向です 02:42:44 - 02:42:47: 私たちは行きたい 02:42:47 - 02:42:50: 一歩踏み出す価値があり、 02:42:50 - 02:42:52: 少し時間を取って、何について考えますか 02:42:52 - 02:42:54: 私たちがこれに足を踏み入れることができたのはそれですか 02:42:55 - 02:42:57: まあ、アルファゼロははるかに少なくなりました 02:42:58 - 02:43:01: 何が起こっていたのかについての仮定 02:43:01 - 02:43:03: また、多くの練習を行うことができました 02:43:03 - 02:43:07: セルフプレイで何度でも 02:43:07 - 02:43:09: 一般に 02:43:09 - 02:43:13: 仮定は一般性を妨げるものです 02:43:13 - 02:43:15: 彼らはパフォーマンスを可能にするので、私が組み込むなら 02:43:16 - 02:43:17: チェスのルールの知識はあります 02:43:17 - 02:43:19: それらをもっと活用するために 02:43:20 - 02:43:22: しかし、それは私がすることも妨げます 02:43:22 - 02:43:24: チェス以外のもの 02:43:24 - 02:43:27: だから私がそれを好転させると 02:43:28 - 02:43:30: 私はそれをするのにもっと時間がかかることを意味します 02:43:30 - 02:43:32: 何かが、それは私ができるかもしれないことを意味します 02:43:32 - 02:43:34: もっとやることを学ぶ 02:43:36 - 02:43:39: いくつかの一般的な仮定 02:43:40 - 02:43:42: センサー情報はノイズフリーです 02:43:42 - 02:43:44: 理想的なセンサー 02:43:44 - 02:43:45: それは理にかなっている 02:43:45 - 02:43:47: もし私たちがチェスをしていたら 02:43:47 - 02:43:48: 作品が与えられた上にあると感じたとき 02:43:48 - 02:43:51: 正方形になると予想されます 02:43:51 - 02:43:52: しかし、私たちが対処しているなら、 02:43:52 - 02:43:54: 自動運転車 02:43:54 - 02:43:56: 表面に泥が付着している可能性があります 02:43:56 - 02:43:58: カメラのキャリブレーション 02:43:58 - 02:44:00: ライダーは少しオフです 02:44:00 - 02:44:03: 理想的なセンサーを仮定することはできません 02:44:03 - 02:44:04: 物理世界との相互作用 02:44:04 - 02:44:06: できないことが多すぎる 02:44:06 - 02:44:09: の制御 02:44:09 - 02:44:12: 別の一般的な仮定は決定論です 02:44:12 - 02:44:14: それが私が行動を起こすときです 私はそれを知っています 02:44:14 - 02:44:17: 毎回同じ結果になる 02:44:17 - 02:44:19: 私が持っているとき、再び非常に理にかなっています 02:44:19 - 02:44:21: 分類するならボードゲームは理にかなっている 02:44:22 - 02:44:24: 画像が画像であると言う場合の画像 02:44:24 - 02:44:26: とラベル付けされることを知っている猫 02:44:26 - 02:44:29: 猫のイメージが正しいか間違っているか 02:44:29 - 02:44:32: しかし、もし私が人型ロボットなら 02:44:32 - 02:44:33: そして私 02:44:33 - 02:44:37: ドアノブに手を伸ばす行動をとる 02:44:37 - 02:44:39: モーターは私のように機能しないかもしれません 02:44:41 - 02:44:44: 足が地面で滑るかもしれない 02:44:44 - 02:44:46: 私に予期せぬ課題がある 02:44:46 - 02:44:48: バランスの取れたアクションが得られない場合があります 02:44:48 - 02:44:50: まさに私の期待通り 02:44:50 - 02:44:54: そして、私はこれに適応できる必要があります 02:44:54 - 02:44:57: 別の本当に一般的な仮定 02:44:58 - 02:45:01: すべてのセンサーは同じタイプです 02:45:02 - 02:45:04: 畳み込みニューラルにおける仮定 02:45:04 - 02:45:06: たとえばネットワーク 02:45:06 - 02:45:07: それは持ち込むのが得意です 02:45:10 - 02:45:13: すべて同じタイプの情報の 02:45:13 - 02:45:15: それはすべてボードであるすべてのピクセルです 02:45:17 - 02:45:19: 一般的な解決策 02:45:19 - 02:45:22: この仮定をする必要はありません 02:45:22 - 02:45:24: 別の仮定 02:45:25 - 02:45:28: これは非常に一般的なものです 02:45:28 - 02:45:31: 世界は私のものを変えない 02:45:33 - 02:45:35: 私が今でも真実であること 02:45:35 - 02:45:37: 5分前に学んだことは今でも真実です 02:45:37 - 02:45:39: たった今 02:45:39 - 02:45:41: 今、私たちはいくつかの変更を加える必要があります 02:45:42 - 02:45:43: についていくつかの仮定を立てる必要があります 02:45:45 - 02:45:47: そうでなければ、私が昨日学んだこと 02:45:47 - 02:45:49: まったく役に立たない 02:45:49 - 02:45:52: しかし、その事実を認める必要もあります 02:45:52 - 02:45:54: 世界が少し変わったことを 02:45:54 - 02:45:57: 多分私の足首関節の潤滑 02:45:57 - 02:45:59: 少し低いので反応します 02:45:59 - 02:46:01: 昨日とは違う 02:46:02 - 02:46:04: 太陽を覆う雲があるかもしれません 02:46:04 - 02:46:06: だから私が学んだ照明条件 02:46:06 - 02:46:08: 昨日の操作は次のように変更されました 02:46:08 - 02:46:09: まあ、私はできる必要があります 02:46:09 - 02:46:13: それに適応する 02:46:14 - 02:46:15: 別の一般的な仮定は 02:46:15 - 02:46:18: 世界である独立はそうではありません 02:46:18 - 02:46:21: 私がそれに何をするかによって変わった 02:46:21 - 02:46:22: 物理的な相互作用はこれに違反します 02:46:22 - 02:46:26: 完全に私がで動作するロボットである場合 02:46:26 - 02:46:28: 家庭と私 02:46:28 - 02:46:30: 椅子にぶつかると、私はそれを6スクートします 02:46:30 - 02:46:33: インチ横に、私が持っているどんな地図でも 02:46:33 - 02:46:35: あの家でできた 02:46:35 - 02:46:37: 少し変更する必要があります 02:46:37 - 02:46:39: 私がピックアップした場合、自分で変更しました 02:46:40 - 02:46:41: マグカップをこのテーブルからあちらに移動 02:46:41 - 02:46:43: テーブルの位置を変更しました 02:46:43 - 02:46:44: そのマグカップ 02:46:44 - 02:46:46: 私がすること 02:46:46 - 02:46:48: 世界を変えて、私は維持する必要があります 02:46:48 - 02:46:50: それと私が使用するアルゴリズムの追跡 02:46:50 - 02:46:54: それを説明できる必要があります 02:46:54 - 02:46:58: 別の一般的な仮定のエルゴード性 02:46:58 - 02:47:00: 私がどのように私が知る必要があるすべて 02:47:00 - 02:47:04: 今この瞬間に感じる 02:47:04 - 02:47:07: これはよく知られている仮定です 02:47:07 - 02:47:09: マルコフ仮定として 02:47:09 - 02:47:10: しかし、それはまた 02:47:10 - 02:47:14: 物理的な相互作用でよく壊れる 02:47:14 - 02:47:16: たとえば、位置を感知できる場合 02:47:16 - 02:47:17: それは素晴らしいですが、それは私にはわかりません 02:47:17 - 02:47:21: 速度については何でも、時には私は 02:47:21 - 02:47:23: 方法を知るには速度を知る必要があります 02:47:23 - 02:47:27: 何かに反応する 02:47:28 - 02:47:30: 非常に一般的な別の仮定 02:47:30 - 02:47:33: 私の行動の結果が 02:47:33 - 02:47:35: すぐに明らかに 02:47:35 - 02:47:36: これはつまらないものです 02:47:36 - 02:47:39: チェスの場合などに当てはまります 02:47:39 - 02:47:42: オープニングの動きが影響する場所 02:47:42 - 02:47:44: 私が勝つかどうか 02:47:44 - 02:47:47: 何回も何歩も離れて 02:47:47 - 02:47:49: 取り扱いにはさまざまなトリックがあります 02:47:49 - 02:47:51: これはチェスでのインスタンスの割り当て 02:47:51 - 02:47:53: ポイント値を中間に 02:47:53 - 02:47:55: 盤上の駒の位置 02:47:55 - 02:47:57: しかし、物理的な相互作用では、それは多くの 02:47:57 - 02:47:59: これを行うのはより困難です 02:47:59 - 02:48:01: それを知るために 02:48:01 - 02:48:03: 私が正しく取る一連の行動が与えられた場合 02:48:04 - 02:48:06: 結果として最も可能性が高いのは 02:48:06 - 02:48:07: 望ましいもの 5 分 02:48:07 - 02:48:14: 今から、または今日から 02:48:14 - 02:48:16: これらの仮定はすべて非常に一般的です 02:48:16 - 02:48:19: 現在使用されているアルゴリズムで 02:48:19 - 02:48:20: 私たちが呼ぶ 02:48:23 - 02:48:25: これらのアルゴリズム 02:48:25 - 02:48:27: 人間を達成するのに十分ではありません 02:48:29 - 02:48:32: これらの仮定は、 02:48:32 - 02:48:37: それをやって 02:48:37 - 02:48:39: これらすべての 02:48:39 - 02:48:42: 仮定には共通点がある 02:48:42 - 02:48:44: あなたがいるとき、彼らは保持されないということです 02:48:44 - 02:48:47: ヒューマノイドロボティクスまたはでの作業 02:48:49 - 02:48:51: 物理的に相互作用するロボット 02:48:54 - 02:48:56: わたしの提案 02:48:56 - 02:48:59: に焦点を当てているか 02:48:59 - 02:49:01: 相互作用する 身体的相互作用 02:49:01 - 02:49:03: 素晴らしい方法です 02:49:03 - 02:49:06: これらに立ち向かわせるには 02:49:06 - 02:49:08: 私たちがどれを見つけ出すための仮定 02:49:08 - 02:49:10: 私たちが避けることができるものを見つけるために曲がることができます 02:49:10 - 02:49:12: みんなで一緒に私たちを駆り立てます 02:49:12 - 02:49:15: 少ないアルゴリズムを作成する 02:49:15 - 02:49:19: 壊れやすく、多くのものに対応できます 02:49:19 - 02:49:21: より一般的な一連のタスク 02:49:21 - 02:49:23: それは私たちを連れて行きます 02:49:23 - 02:49:25: 人間のレベルに一歩近づいた 02:49:27 - 02:49:29: 人工物と聞くと 02:49:29 - 02:49:31: 約半分の時間の知性 02:49:31 - 02:49:33: 人々が話していることは 02:49:35 - 02:49:37: それらがどのように機能するかを理解することは本当に 02:49:37 - 02:49:40: の背後をのぞくのに役立ちます 02:49:40 - 02:49:41: 人工の魔法のカーテン 02:49:41 - 02:49:43: インテリジェンスなので、私たちは歩きます 02:49:43 - 02:49:47: それを通して詳細に 02:49:49 - 02:49:51: 画像を撮ります 02:49:51 - 02:49:52: そしてそれらから 02:49:52 - 02:49:54: 彼らは建物のパターンを学びます 02:49:54 - 02:49:56: それらを構成するブロック 02:49:56 - 02:49:58: たとえば、最初のレベルでは 02:49:58 - 02:50:00: このネットワークで次のようなことを学ぶことができます 02:50:00 - 02:50:02: 異なる位置にある線分 02:50:03 - 02:50:06: その後のレイヤーで、それらは取得します 02:50:06 - 02:50:09: 顔や要素などに組み込まれています 02:50:09 - 02:50:10: 車の 02:50:10 - 02:50:13: トレーニングするイメージに応じて 02:50:13 - 02:50:15: 上のネットワーク 02:50:15 - 02:50:17: これを強化と組み合わせることができます 02:50:17 - 02:50:19: アルゴリズムを学習してアルゴリズムを取得する 02:50:19 - 02:50:23: ビデオゲームをする人 囲碁を学ぶ人 02:50:23 - 02:50:27: または制御ロボット 02:50:27 - 02:50:30: これらがどのように機能するかを掘り下げます 02:50:30 - 02:50:32: 非常に単純な例から始める 02:50:32 - 02:50:34: これらすべてよりも簡単 02:50:36 - 02:50:38: 非常に小さな画像を見ることができます 02:50:38 - 02:50:40: の写真かどうかを判断します 02:50:40 - 02:50:42: x または o 02:50:42 - 02:50:46: ちょうど2つのカテゴリ 02:50:46 - 02:50:48: たとえば、この左側の画像は 02:50:48 - 02:50:51: x の 8 x 8 ピクセルの画像 02:50:51 - 02:50:54: ネットワークでそれを 02:50:55 - 02:50:57: 同様に、私たちのイメージで 02:50:57 - 02:51:01: ネットワークに o として分類してもらいたい 02:51:01 - 02:51:03: 今、これは完全に簡単ではありません 02:51:03 - 02:51:05: ケースも扱いたかったので 02:51:05 - 02:51:07: これらの入力が異なる場合 02:51:07 - 02:51:09: サイズまたはそれらが回転されているか、または 02:51:09 - 02:51:10: 重くなったり軽くなったり、 02:51:10 - 02:51:13: 正確な時間を教えてほしい 02:51:14 - 02:51:16: 人間はこれらを見ても問題ありません 02:51:16 - 02:51:18: 何をすべきかを決める際に 02:51:18 - 02:51:21: コンピュータは、これをしようとするとはるかに困難です 02:51:21 - 02:51:24: これら2つのものが等しいかどうかを判断する 02:51:24 - 02:51:26: それが何をするかは、それが通過することです 02:51:26 - 02:51:28: ピクセルごとの黒いピクセルは、 02:51:28 - 02:51:30: マイナス1の白いピクセルはプラスかもしれません 02:51:30 - 02:51:33: 1つをピクセルごとに比較します 02:51:33 - 02:51:36: ピクセルは一致するものを見つけ、ここで 02:51:36 - 02:51:38: 赤いピクセルはそうでないものです 02:51:38 - 02:51:41: これを見たコンピュータはこう言うでしょう 02:51:41 - 02:51:43: ええと、これらは彼らが持っているものと同じではありません 02:51:43 - 02:51:44: いくつかの試合がありますが、彼らはそれがたくさんあります 02:51:44 - 02:51:46: 一致しない 02:51:48 - 02:51:50: 彼らが使用するトリックの1つはこれを行うことです 02:51:50 - 02:51:53: それらが画像の一部と一致すること 02:51:53 - 02:51:55: これらの作品を見て 02:51:55 - 02:51:58: それらを少しずらしますが、 02:51:59 - 02:52:02: 小さなビットはまだ一致し、全体的に一致します 02:52:02 - 02:52:04: 画像はまだかなり良いと考えられています 02:52:06 - 02:52:11: これらの小さなビットはこのように見えるかもしれません 02:52:11 - 02:52:13: 私たちはそれらをあなたが見ることができる機能と呼びます 02:52:13 - 02:52:16: 左側の 1 つは対角線のように見えます 02:52:16 - 02:52:19: 左に傾いている×の腕 02:52:19 - 02:52:21: 真ん中が真ん中に見える 02:52:21 - 02:52:22: 交差する x 02:52:22 - 02:52:23: 右側のものは 02:52:23 - 02:52:25: 斜めの腕 02:52:25 - 02:52:28: 右傾 02:52:28 - 02:52:29: これらがどのように異なるかがわかります 02:52:29 - 02:52:32: のこれらのさまざまな機能を分割します 02:52:33 - 02:52:36: 異なるパッチに一致 02:52:36 - 02:52:39: 全体像の中で 02:52:40 - 02:52:43: この一致を見つけるための背後にある数学 02:52:43 - 02:52:46: 機能を適用することをフィルタリングと呼びます 02:52:46 - 02:52:48: それはかなり簡単ですが、 02:52:48 - 02:52:50: 通り抜ける価値がある 02:52:50 - 02:52:51: それが行われる方法は、あなたが線を引くことです 02:52:51 - 02:52:53: あなたがしている画像パッチに注目してください 02:52:53 - 02:52:55: 関係する 02:52:55 - 02:52:57: ピクセルごとに乗算する 02:52:57 - 02:52:59: 値を合計してから、 02:53:00 - 02:53:01: 総ピクセル数これは一方向です 02:53:01 - 02:53:03: それをするために 02:53:04 - 02:53:05: ここで例えば 02:53:05 - 02:53:09: この腕の特徴から始めます 02:53:09 - 02:53:11: x が左に傾いている 02:53:11 - 02:53:13: 私たちはそれを調整します 02:53:13 - 02:53:15: 画像のこの腕 02:53:15 - 02:53:17: 左上のピクセルから始めます 02:53:18 - 02:53:20: 両方の値を 1 つずつ乗算します 02:53:20 - 02:53:22: 1に等しい 02:53:22 - 02:53:24: アッパーから始めたので 02:53:24 - 02:53:26: 追跡できる左のピクセル 02:53:26 - 02:53:28: ここで答えるので、このピクセルがいつ 02:53:28 - 02:53:32: 掛け算は1に等しい 02:53:32 - 02:53:35: 上部中央のピクセルはマイナス 1 です 02:53:36 - 02:53:40: 機能とイメージの両方で 02:53:40 - 02:53:43: マイナス 1 かける -1 も 1 に等しいので、 02:53:44 - 02:53:47: それらを掛けて1になるとき 02:53:47 - 02:53:49: それは完璧で強いことを示しています 02:53:51 - 02:53:53: そして、これを続けることができます 02:53:54 - 02:53:57: 全体の特徴と全体のイメージ 02:53:58 - 02:54:00: そして、彼らは完全に一致しているからです 02:54:00 - 02:54:02: これらの一つ一つ 02:54:02 - 02:54:05: 試合は一つとして戻ってくる 02:54:05 - 02:54:07: したがって、全体的な一致を見つけるには、 02:54:07 - 02:54:09: これらの 9 つのものすべてを合計して、 02:54:10 - 02:54:12: 合計数は 9 で、 02:54:12 - 02:54:15: 1の一致 02:54:15 - 02:54:17: これで、保持する別の配列を作成できます 02:54:18 - 02:54:21: 機能がどれだけ優れているか 02:54:21 - 02:54:24: この位置に置くと 02:54:24 - 02:54:26: 私たちのイメージにマッチした 02:54:26 - 02:54:28: この平均値は 02:54:28 - 02:54:32: それを追跡するためにそこに1つ 02:54:32 - 02:54:33: あなたはそれがどのように見えるかを見ることができます 02:54:33 - 02:54:36: その後、この機能を移動して調整する必要がありました 02:54:36 - 02:54:37: それを別のパッチに 02:54:38 - 02:54:40: x の中心に移動します。 02:54:40 - 02:54:42: ピクセルごとに進み、何を見つけますか 02:54:42 - 02:54:45: 一致し、数ピクセル後に 02:54:45 - 02:54:47: 実際に一致しないものを見つけます 02:54:47 - 02:54:49: プラス 1 のマイナス 1 倍で終わる 02:54:49 - 02:54:52: 私たちにマイナス1を返します 02:54:52 - 02:54:55: これは、これらの不一致を示します 02:54:58 - 02:55:00: 残りの部分を見ていきます 02:55:00 - 02:55:01: 機能があることがわかります 02:55:01 - 02:55:04: 一致しないピクセルのカップル 02:55:04 - 02:55:06: これらを足して割ると 02:55:06 - 02:55:08: 9 までに、以下の数が得られます。 02:55:08 - 02:55:10: 1.5 5 02:55:10 - 02:55:12: したがって、部分一致を示しますが、そうではありません 02:55:12 - 02:55:16: 完璧なもの 02:55:16 - 02:55:18: それはあなたが通過して行うことができることがわかりました 02:55:21 - 02:55:23: あなたはそれをすべてに切り刻むことができます 02:55:23 - 02:55:25: 可能な画像パッチ 02:55:25 - 02:55:27: それぞれの特徴を比較 02:55:27 - 02:55:29: これで得られるものは次のとおりです 02:55:29 - 02:55:31: 具体的事例 02:55:31 - 02:55:34: これは、畳み込みが取っているものです 02:55:34 - 02:55:37: 機能とそれをすべてに適用する 02:55:37 - 02:55:40: 画像全体に可能なパッチ 02:55:40 - 02:55:42: ここで見ることができます 02:55:42 - 02:55:44: フィルタリングと呼ばれる理由 02:55:44 - 02:55:46: 私たちが持っているのは地図です 02:55:46 - 02:55:49: この機能の場所 02:55:49 - 02:55:51: イメージにマッチ 02:55:51 - 02:55:54: あなたはプラスワンの強い束を見ることができます 02:55:54 - 02:55:56: 下からの対角線上 02:55:56 - 02:55:58: 右上から左上 02:55:58 - 02:56:00: その後 02:56:00 - 02:56:03: 他の場所では値が小さい 02:56:03 - 02:56:04: フィルタされたバージョンです 02:56:04 - 02:56:07: がどこにあるかを示す元の画像 02:56:07 - 02:56:10: 機能の一致 02:56:10 - 02:56:11: あなたはこれを行うことができます 02:56:11 - 02:56:14: これをこの表記で表すことができます 02:56:14 - 02:56:15: ええと、私たちはこの小さなものを発明しました 02:56:16 - 02:56:19: 省略形の演算子 02:56:19 - 02:56:20: そして、これを私たちの他のもので行うことができます 02:56:20 - 02:56:22: 特徴も 02:56:22 - 02:56:26: 中心の x が一致する場所を確認できます 02:56:26 - 02:56:28: 当然のことながら、それは最も強く一致します 02:56:28 - 02:56:30: 画像の中心 02:56:30 - 02:56:33: 傾いた右腕がどこにあるかがわかります 02:56:34 - 02:56:36: 一致し、驚くほど一致します 02:56:36 - 02:56:38: 左下からこの対角線に沿って 02:56:38 - 02:56:41: 右上へ 02:56:41 - 02:56:43: の 3 つのフィルタリングされたバージョンがあります。 02:56:43 - 02:56:46: 元の画像 02:56:50 - 02:56:54: 畳み込みニューラル ネットワークでは 02:56:54 - 02:56:57: その中に一連の機能があります 02:56:57 - 02:56:59: そして、それは3つまたは30つまたは3つになる可能性があります 02:56:59 - 02:57:01: 百か三千 02:57:01 - 02:57:04: しかし、それには一連の機能があります 02:57:04 - 02:57:06: 元の画像を取得します 02:57:06 - 02:57:08: そして戻る 02:57:08 - 02:57:12: それぞれに 1 つずつ、フィルター処理された画像のセット 02:57:14 - 02:57:19: このように表します 02:57:19 - 02:57:22: それが一番の成分です 02:57:25 - 02:57:27: スペシャルソーススペシャルトリック 02:57:27 - 02:57:30: それはから得ます 02:57:30 - 02:57:32: 完全一致ではない 02:57:32 - 02:57:34: アルゴリズムがプルできるようにしましょう 02:57:34 - 02:57:36: それは完璧な一致ではありません 02:57:36 - 02:57:38: しかし、それはまだかなり良い試合です 02:57:38 - 02:57:40: この畳み込みを行い、 02:57:40 - 02:57:42: フィーチャを画像上で移動し、 02:57:42 - 02:57:45: 一致する可能性のあるすべての場所を検索します 02:57:45 - 02:57:49: これの別の部分はプーリングと呼ばれます 02:57:49 - 02:57:51: 元の画像を取得し、 02:57:51 - 02:57:53: 画像のスタックを持っている 02:57:53 - 02:57:55: このステップが行うことは、それを縮小することです 02:57:55 - 02:57:57: 少し下がって 02:57:57 - 02:57:59: ウィンドウのサイズを選択することから始めます 02:57:59 - 02:58:02: 通常は 2 ~ 3 ピクセル 02:58:02 - 02:58:04: 歩幅をピッキングすると、通常は 2 つのピクセルが 02:58:04 - 02:58:06: うまく機能することが示された 02:58:06 - 02:58:08: そしてこの窓を歩いて 02:58:08 - 02:58:11: フィルタリングされた画像全体 02:58:11 - 02:58:13: 次に、各ウィンドウから 02:58:13 - 02:58:15: 表示される最大値なので、これは 02:58:15 - 02:58:18: 最大プーリングと呼ばれる 02:58:18 - 02:58:20: これがどのように機能するかを確認するために、 02:58:20 - 02:58:22: フィルター処理された画像の 1 つ 02:58:22 - 02:58:23: 2 ピクセルのウィンドウがあります 02:58:23 - 02:58:25: 2 ピクセルずつ 02:58:25 - 02:58:29: その中で最大値は1です 02:58:29 - 02:58:31: 別の小さな配列を作成して 02:58:31 - 02:58:33: すべての結果を追跡し、 02:58:33 - 02:58:35: そこに1を入れる 02:58:35 - 02:58:38: そして、私たちは大股でそれを乗り越えます 02:58:38 - 02:58:40: これは2ピクセルです 02:58:40 - 02:58:42: ウィンドウを見て、最大値を選択してください 02:58:42 - 02:58:45: この場合の値は 0.33 です 02:58:45 - 02:58:48: 録音してやり直す 02:58:48 - 02:58:49: このレコーディングを続けています 02:58:49 - 02:58:51: 毎回最大値 02:58:52 - 02:58:53: イメージを通して 03:01:06 - 03:01:07: そして終わったら 02:58:55 - 02:58:58: 目を細めると 02:58:58 - 02:59:01: オリジナルの縮小版 02:59:01 - 02:59:04: 私たちはまだこの強力なプラスのセットを持っています 02:59:04 - 02:59:06: 左上から対角線上のもの 02:59:06 - 02:59:08: 右下 02:59:08 - 02:59:09: そして、他のどこでもそれよりも小さい 02:59:10 - 02:59:12: そのため、元のようなものを維持します 02:59:12 - 02:59:15: 信号ですが、ピックのようなものを縮小します 02:59:15 - 02:59:16: 高い点から離れて 02:59:16 - 02:59:21: これにより、より小さな画像が得られますが、 02:59:21 - 02:59:24: まだオリジナルに似ている 02:59:24 - 02:59:26: そして、これでそれを表すことができます 02:59:26 - 02:59:28: これを行うことができる小さな縮小矢印 02:59:28 - 02:59:30: フィルター処理された各画像と 02:59:30 - 02:59:32: 繰り返しますが、非常に大まかに 02:59:32 - 02:59:36: 元のパターンは維持されます 03:00:38 - 03:00:39: 画像のスタックは 02:59:40 - 02:59:44: 小さい画像 02:59:44 - 02:59:46: 今、私たちが必要とする最後の材料は 02:59:47 - 02:59:50: これにより、数学が破綻するのを防ぎます 02:59:50 - 02:59:52: これらの値を取得して微調整するだけです 02:59:52 - 02:59:53: 少しそれはすべてが必要です 02:59:53 - 02:59:56: 負にし、それをゼロに変更します 02:59:56 - 02:59:58: これは物事を 02:59:58 - 03:00:01: あなたのように手に負えないほど大きくなる 03:00:01 - 03:00:05: 後続のレイヤーを進む 03:00:05 - 03:00:07: この関数は整流と呼ばれます 03:00:08 - 03:00:10: それは何かの派手な名前です 03:00:10 - 03:00:12: 否定的なものは何でも取り、 03:00:12 - 03:00:15: それをゼロにするので、0.77は負ではありません 03:00:15 - 03:00:19: 触れませんがマイナス0.11です 03:00:19 - 03:00:21: マイナスはそれをゼロに上げるだけです 03:00:21 - 03:00:23: そして、あなたがすべてを通り抜ける頃には 03:00:23 - 03:00:24: あなたの画像のこれをすべてあなたの 03:00:24 - 03:00:26: ピクセルとこれを行いましたこれはあなたがすることです 03:00:26 - 03:00:28: ネガティブだったものはすべて 03:00:28 - 03:00:29: 今ゼロ 03:00:29 - 03:00:31: ほんの少しだけ 03:00:31 - 03:00:34: 正規化を維持するためのいくつかの条件付け 03:00:34 - 03:00:38: 数値的に正常に動作するもの 03:00:45 - 03:00:48: 1つの出力に気付くことができます 03:00:48 - 03:00:52: レイヤーは次への入力のように見えます 03:00:52 - 03:00:56: 常に数値の配列があります 03:00:56 - 03:00:57: 画像と数値の配列は 03:00:58 - 03:00:59: 交換可能なものは同じです。 03:00:59 - 03:01:00: あなたはの出力を取ることができます 03:01:00 - 03:01:02: 畳み込み層はそれを 03:01:02 - 03:01:04: 調整された線形ユニット レイヤー フィード 03:01:04 - 03:01:06: プーリング層を通して 03:01:08 - 03:01:10: あなたはすべてを持っている何かを持っています 03:01:10 - 03:01:13: それに行われたこれらの操作 03:01:13 - 03:01:15: 実際、これをもう一度行うことができ、 03:01:19 - 03:01:20: のように作ることが想像できるレシピ 03:01:20 - 03:01:22: これらすべてのスクービードゥーサンドイッチ 03:01:22 - 03:01:24: 何度も何度も異なるレイヤー 03:01:24 - 03:01:25: 異なる注文 03:01:25 - 03:01:28: ええと、ええと、最も成功したもののいくつか 03:01:31 - 03:01:32: みたいな 03:01:36 - 03:01:37: たまたま機能するこれらのグループ 03:01:37 - 03:01:39: 彼らは再び慣れて、 03:01:40 - 03:01:44: そのため、時間の経過とともに各畳み込みレイヤー 03:01:44 - 03:01:46: 多数の機能によるフィルタリング 03:01:46 - 03:01:49: 修正された各線形単位レイヤーが変更されます 03:01:49 - 03:01:52: すべてが非負であり、それぞれ 03:01:52 - 03:01:54: プーリング層はそれを縮小します 03:01:54 - 03:01:56: あなたが完了するまでに、あなたは 03:01:56 - 03:01:58: フィルタリングされた画像の非常に高いスタック 03:01:58 - 03:02:01: 負の値はありません 03:02:01 - 03:02:05: 縮んだ 03:02:05 - 03:02:07: 私たちが通り過ぎる頃には 03:02:07 - 03:02:09: これを数回繰り返す 03:02:09 - 03:02:12: 私たちはそれを取り、完全に実行します 03:02:12 - 03:02:14: 接続されたレイヤー 03:02:14 - 03:02:18: 標準ニューラル ネットワーク 03:02:19 - 03:02:21: に接続されます 03:02:22 - 03:02:24: 次のレイヤーで 03:02:24 - 03:02:26: おもり付き 03:02:26 - 03:02:27: あなたが考えることができるすべての値 03:02:27 - 03:02:29: 投票プロセスとして 03:02:29 - 03:02:31: 残っているすべてのピクセル値 03:02:31 - 03:02:33: これらのフィルタリングされた縮小画像では、 03:02:33 - 03:02:37: 答えをどうするか投票する 03:02:37 - 03:02:40: そしてこの投票は、それがどれほど強いかによって異なります 03:02:40 - 03:02:43: は、次の場合に x または o を予測する傾向があります。 03:02:45 - 03:02:47: は高い 03:02:47 - 03:02:50: この出力は通常 x ですか、それとも 03:02:50 - 03:02:51: 通常はo 03:02:51 - 03:02:53: この特定の入力を確認できます 03:02:53 - 03:02:56: 入力は x でした 03:02:56 - 03:02:59: 虚数の畳み込みおよびフィルター処理された値 03:03:02 - 03:03:03: 時間が経つにつれて、これらが 03:03:03 - 03:03:05: 高いもの 03:03:05 - 03:03:08: xが強い票を獲得したとき 03:03:10 - 03:03:13: 同様にカテゴリ 03:03:13 - 03:03:16: o の入力がある場合 03:03:17 - 03:03:19: になりがちな最終的なピクセル値 03:03:19 - 03:03:22: 正解が行の場合は非常に高い 03:03:22 - 03:03:25: is o は o に強い票を投じます 03:03:27 - 03:03:29: これらの線の太さは 03:03:30 - 03:03:32: これらの間の投票の強さ 03:03:32 - 03:03:37: ピクセルとこれらの答え 03:03:37 - 03:03:38: 新しい入力を取得すると 03:03:38 - 03:03:40: これらは前に見たことがないかもしれません 03:03:40 - 03:03:43: これらを使用できる最終的なピクセル値 03:03:43 - 03:03:45: 投票し、加重投票プロセスを行う 03:03:45 - 03:03:47: これらの両方に 03:03:47 - 03:03:48: それらを追加します 03:03:48 - 03:03:51: この場合、0.92 であることがわかります。 03:03:51 - 03:03:52: x の合計 03:03:52 - 03:03:55: o の合計は 0.51 03:03:55 - 03:03:57: 0.92 は明らかに 0.51 以上です。 03:03:57 - 03:03:59: x が勝者であると宣言するので、この入力は 03:03:59 - 03:04:04: ×に分類されている 03:04:04 - 03:04:07: これは全結合層なので 03:04:07 - 03:04:09: 特徴値のリストを取得するだけです 03:04:09 - 03:04:13: この場合、フィルタリングされた縮小ピクセル 03:04:13 - 03:04:15: そしてそれはそれぞれの投票のリストになります 03:04:15 - 03:04:18: この場合の出力カテゴリの 03:04:18 - 03:04:21: ×または○ 03:04:21 - 03:04:23: これらも積み重ねることができます 03:04:23 - 03:04:24: 彼らはそれらを隠されたと呼んでいます 03:04:24 - 03:04:27: レイヤーですが、秘密の非表示のカテゴリのようです 03:04:27 - 03:04:29: ここの間にあるので、1 人が 03:04:29 - 03:04:31: の最初のセットに対する最初の層の投票 03:04:31 - 03:04:32: 非表示のカテゴリとそれらの投票 03:04:32 - 03:04:34: 次のレイヤーなど、あなたまで 03:04:34 - 03:04:36: 私たちが掘り下げる最後のものにたどり着きます 03:04:36 - 03:04:37: これはあと少しで 03:04:40 - 03:04:42: すべてが最後にスタック 03:04:42 - 03:04:45: 次のレベルに進みます 03:04:45 - 03:04:47: これらのニューラル ネットワークの詳細 03:04:48 - 03:04:50: x 検出器と o 検出器を 03:04:50 - 03:04:53: そこにいる間、私たちは8 x 8を持っていました 03:04:53 - 03:04:56: ピクセル画像なので全部で64ピクセル 03:04:56 - 03:04:59: 2 x 2 ピクセルの画像を考えてみましょう。 03:04:59 - 03:05:02: ただの4ピクセルカメラ 03:05:02 - 03:05:04: そして私たちがやりたいこと 03:05:04 - 03:05:07: 撮影した画像を分類する 03:05:07 - 03:05:10: いずれかの固体イメージとしてすべての光 03:05:10 - 03:05:12: またはすべての暗い 03:05:12 - 03:05:14: 縦長の画像 03:05:14 - 03:05:15: 斜めのイメージ 03:05:16 - 03:05:19: または横長の画像 03:05:19 - 03:05:21: ここでのトリックは、単純なルールです 03:05:21 - 03:05:24: できないのでどちらも 03:05:24 - 03:05:26: 横向きの画像ですが、 03:05:26 - 03:05:28: ピクセル値は完全に反対です 03:05:28 - 03:05:30: どちらも 03:05:30 - 03:05:33: 左上のピクセルは白 03:05:33 - 03:05:34: 右上のピクセルは白です 03:05:34 - 03:05:36: 水平でなければなりません。 03:05:36 - 03:05:39: 相手に犯される 03:05:39 - 03:05:40: もちろん、もっと多くのことができます 03:05:40 - 03:05:42: これを行うための複雑なルールがポイント 03:05:42 - 03:05:44: より大きな画像に移動すると、 03:05:44 - 03:05:47: すべてを捉える単純なルールは作れない 03:05:47 - 03:05:49: ご希望のケース 03:05:50 - 03:05:52: どうすればいいですか 03:05:52 - 03:05:55: これらの 4 つの入力ピクセルを取得し、 03:05:55 - 03:05:56: それらを分解し、入力と呼びます 03:05:56 - 03:05:58: ニューロンですが、これらのピクセルを取得するだけです 03:05:58 - 03:06:01: それらを数字のリストに変えます 03:06:01 - 03:06:03: 数字は明るさに対応 03:06:03 - 03:06:06: マイナス 1 は黒 プラス 1 は白 03:06:06 - 03:06:08: ゼロは中間の灰色で、それ以外はすべて 03:06:08 - 03:06:11: 間にある 03:06:11 - 03:06:13: これはこの小さな画像を取り 03:06:13 - 03:06:15: それを数字のリストに変えます 03:06:15 - 03:06:18: それが入力ベクトルです 03:06:18 - 03:06:19: これらのそれぞれは、次のように考えることができます 03:06:20 - 03:06:22: 受容野を持つ 03:06:25 - 03:06:28: この入力の値を次のようにします 03:06:28 - 03:06:30: できるだけ高く 03:06:30 - 03:06:32: 一番上の入力を見ると 03:06:34 - 03:06:35: その数値が高くなるイメージ 03:06:35 - 03:06:38: 可能な限り左上のピクセル 03:06:38 - 03:06:39: それは白い 03:06:40 - 03:06:42: それはそのものとそれの価値を作ります 03:06:42 - 03:06:43: 他のピクセルが何であるかは気にしません 03:06:43 - 03:06:45: それが彼らがチェックされている理由です 03:06:45 - 03:06:46: これらのそれぞれが持っていることがわかります 03:06:46 - 03:06:49: それ自身の対応する受容野 03:06:49 - 03:06:51: 価値を高くするイメージ 03:06:51 - 03:06:54: それが行くことができるように 03:06:54 - 03:06:57: 次にニューロンを作成します 03:06:57 - 03:06:59: だから、人々が人工について話すとき 03:06:59 - 03:07:01: ニューラル ネットワークとニューロン 03:07:01 - 03:07:03: 少しずつ作っていきます 03:07:03 - 03:07:04: ニューロンを作るために最初にすること 03:07:04 - 03:07:06: 追加するこれらすべての入力を使用しますか 03:07:06 - 03:07:07: それらを 03:07:07 - 03:07:09: この場合、これが得られるものです 03:07:09 - 03:07:13: この時点でのニューロン値は 0.5 です 03:07:13 - 03:07:15: 次に行うことは、 03:07:15 - 03:07:17: 加重投票について言及しました 03:07:17 - 03:07:20: 前のプロセスなので、それはどのように見えるか 03:07:20 - 03:07:22: これらの入力のそれぞれに割り当てられる 03:07:22 - 03:07:26: プラスマイナス1の重さ 03:07:27 - 03:07:29: 値が乗算されます 03:07:29 - 03:07:32: 追加される前のその重量 03:07:32 - 03:07:34: これで加重合計が得られました 03:07:34 - 03:07:37: これらの入力ニューロンの 03:07:37 - 03:07:39: これを次のように視覚的に表現します。 03:07:39 - 03:07:41: 正の重みを白で表示 03:07:41 - 03:07:42: 黒の負の重みと 03:07:42 - 03:07:44: 線の太さ 03:07:45 - 03:07:47: 重量に比例し、 03:07:47 - 03:07:49: 重みはゼロです。 03:07:49 - 03:07:50: ビジュアルを最小限に抑える 03:07:50 - 03:07:53: 乱雑なので、加重合計が得られます 03:07:55 - 03:07:57: 私たちが次にしなければならないことは、 03:07:57 - 03:07:59: 結果をつぶす 03:07:59 - 03:08:01: たくさんやるから 03:08:01 - 03:08:03: いつだっていいよね 03:08:03 - 03:08:05: 答えがプラスとの間であることを保証する 03:08:05 - 03:08:08: それを保持する各ステップの後にマイナス1 03:08:08 - 03:08:13: 数値的に大きくなるから 03:08:13 - 03:08:15: とても便利な機能がこれ 03:08:15 - 03:08:19: s 字型のシグモイド スカッシング関数 03:08:19 - 03:08:20: この特定のものは、 03:08:20 - 03:08:23: 紛らわしい双曲線正接があります 03:08:23 - 03:08:25: シグモイドと呼ばれるもの 03:08:25 - 03:08:27: 少し違いますが同じです 03:08:27 - 03:08:29: 一般的な形状ですが、 03:08:30 - 03:08:32: あなたができることです 03:08:32 - 03:08:34: あなたの入力を入れてください 03:08:34 - 03:08:35: 縦線を引いて どこを見て 03:08:36 - 03:08:37: カーブトラックを横切り、 03:08:38 - 03:08:40: y 軸に水平線を使用する 03:08:40 - 03:08:42: そして、あなたは破壊されたバージョンが何であるかを見ることができます 03:08:42 - 03:08:45: あなたの番号のつぶれたバージョンは 03:08:45 - 03:08:47: したがって、この場合 0.5 はちょうど 03:08:47 - 03:08:50: 0.5以下 03:08:50 - 03:08:53: 0.65 は約 0.6 になり、 03:08:53 - 03:08:56: あなたはこの曲線を上っていく 03:08:56 - 03:08:59: あなたの数がどれだけ大きくなっても 03:08:59 - 03:09:01: あなたが得るものは決して大きくなりません 03:09:02 - 03:09:04: 同様に、それよりも小さくなることはありません 03:09:04 - 03:09:07: マイナス1なのでこれがかかります 03:09:07 - 03:09:09: 無限に長い数直線とスカッシュ 03:09:10 - 03:09:11: すべてがプラスとマイナスの間になるように 03:09:15 - 03:09:17: この関数を出力に適用します 03:09:17 - 03:09:19: 加重合計の 03:09:19 - 03:09:21: そして、最終的な答えを得る 03:09:21 - 03:09:22: したがって、この 03:09:22 - 03:09:25: 加重和とスカッシュ 03:09:25 - 03:09:27: ほとんどの場合、人々が話していることです 03:09:27 - 03:09:29: 彼らが人工物について話すときについて 03:09:31 - 03:09:33: 今はこれを一度だけ行う必要はありません 03:09:33 - 03:09:35: 何度でもできる 03:09:35 - 03:09:37: 異なる重みで 03:09:37 - 03:09:40: この重み付けされたコレクション 03:09:40 - 03:09:42: ニューロンの合計とスカッシュ 03:09:42 - 03:09:45: あなたはそれをレイヤーと考えることができますか 03:09:45 - 03:09:49: 大まかに生物に触発された 03:09:49 - 03:09:52: 人間の皮質のニューロンの層 03:09:53 - 03:09:55: これらにはそれぞれ異なるセットがあります 03:09:55 - 03:09:56: ここに重み 03:09:56 - 03:09:58: 私たちの写真を本当にシンプルに保つために、 03:09:58 - 03:10:00: これらの重みがプラス 1 であると仮定します。 03:10:01 - 03:10:05: マイナス 1 本の黒い線またはゼロの欠落 03:10:07 - 03:10:09: だからこの場合は今 03:10:09 - 03:10:10: 私たちは私たちを持っています 03:10:10 - 03:10:12: ニューロンの層 03:10:12 - 03:10:14: 受容野が 03:10:14 - 03:10:16: より複雑になりました 03:10:16 - 03:10:19: 最初のニューロンを見ると 03:10:19 - 03:10:21: 一番上のレイヤーは、それがどのように見えるかを見ることができます 03:10:21 - 03:10:24: 左上からの入力を組み合わせる 03:10:24 - 03:10:27: ピクセルと左下のピクセル 03:10:27 - 03:10:29: 両方の重みが正である 03:10:29 - 03:10:30: ラインは白 03:10:30 - 03:10:33: そして、その受容性から何が生まれますか 03:10:33 - 03:10:36: フィールドは、これらのピクセルの両方が 03:10:36 - 03:10:37: 左は白 03:10:38 - 03:10:39: 次に、可能な限り最高の値を持ちます 03:10:39 - 03:10:42: おそらく持っている 03:10:42 - 03:10:43: そのニューロンの層を見ると 03:10:43 - 03:10:45: 私たちが見ることができる一番下のものを見てください

freeCodeCamp.org

※本サイトに掲載されているチャンネル情報や動画情報はYouTube公式のAPIを使って取得・表示しています。

Timetable

動画タイムテーブル

動画数:1620件

⌨️ () Introduction - Automate Boring Tasks – No-Code Automation Course

⌨️ () Introduction

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
00:00:00 - 00:05:23
⌨️ () Getting started - Automate Boring Tasks – No-Code Automation Course

⌨️ () Getting started

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
00:05:23 - 00:08:26
⌨️ () Lead Management Automation - Automate Boring Tasks – No-Code Automation Course

⌨️ () Lead Management Automation

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
00:08:26 - 00:09:19
⌨️ () Lead organization with Facebook Lead Ads and Google Sheets - Automate Boring Tasks – No-Code Automation Course

⌨️ () Lead organization with Facebook Lead Ads and Google Sheets

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
00:09:19 - 00:21:32
⌨️ () Lead Enrichment with web-hooks, HubSpot, Slack and Clearbit - Automate Boring Tasks – No-Code Automation Course

⌨️ () Lead Enrichment with web-hooks, HubSpot, Slack and Clearbit

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
00:21:32 - 00:58:04
⌨️ () Lead classification with Typeform and Hubspot - Automate Boring Tasks – No-Code Automation Course

⌨️ () Lead classification with Typeform and Hubspot

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
00:58:04 - 01:10:10
⌨️ () Qualify incoming leads with Google Sheets and Clearbit - Automate Boring Tasks – No-Code Automation Course

⌨️ () Qualify incoming leads with Google Sheets and Clearbit

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
01:10:10 - 01:29:43
⌨️ () Ecommerce Automation - Automate Boring Tasks – No-Code Automation Course

⌨️ () Ecommerce Automation

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
01:29:43 - 01:30:27
⌨️ () Generate Product Descriptions with ChatGPT and Google Sheets - Automate Boring Tasks – No-Code Automation Course

⌨️ () Generate Product Descriptions with ChatGPT and Google Sheets

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
01:30:27 - 01:45:49
⌨️ () Ticketing/Barcode Automation - Automate Boring Tasks – No-Code Automation Course

⌨️ () Ticketing/Barcode Automation

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
01:45:49 - 01:46:13
⌨️ () Generate barcoded tickets with Google Sheets and Google Docs - Automate Boring Tasks – No-Code Automation Course

⌨️ () Generate barcoded tickets with Google Sheets and Google Docs

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
01:46:13 - 02:07:45
⌨️ () Automation In-house - Automate Boring Tasks – No-Code Automation Course

⌨️ () Automation In-house

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
02:07:45 - 02:08:05
⌨️ () Generate calendar events with Trello and Google Calendar - Automate Boring Tasks – No-Code Automation Course

⌨️ () Generate calendar events with Trello and Google Calendar

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
02:08:05 - 02:17:03
⌨️ () Make a to-do list from Discord Messages and Google Sheets - Automate Boring Tasks – No-Code Automation Course

⌨️ () Make a to-do list from Discord Messages and Google Sheets

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
02:17:03 - 02:33:16
⌨️ () Automation and AI - Automate Boring Tasks – No-Code Automation Course

⌨️ () Automation and AI

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
02:33:16 - 02:34:00
⌨️ () Automate emails with ChatGPT and Gmail - Automate Boring Tasks – No-Code Automation Course

⌨️ () Automate emails with ChatGPT and Gmail

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
02:34:00 - 03:00:24
⌨️ () Recap - Automate Boring Tasks – No-Code Automation Course

⌨️ () Recap

Automate Boring Tasks – No-Code Automation Course
2024年03月28日 
03:00:24 - 03:00:39
⌨️  What is NestJS - Learn NestJS – Complete Course

⌨️ What is NestJS

Learn NestJS – Complete Course
2024年03月26日 
00:00:00 - 00:03:01
⌨️  Create NestJS Project - Learn NestJS – Complete Course

⌨️ Create NestJS Project

Learn NestJS – Complete Course
2024年03月26日 
00:03:01 - 00:05:30
⌨️  NestJS Directory StructureModule 1 - Learn NestJS – Complete Course

⌨️ NestJS Directory StructureModule 1

Learn NestJS – Complete Course
2024年03月26日 
00:05:30 - 00:07:00
⌨️  Creating Controller - Learn NestJS – Complete Course

⌨️ Creating Controller

Learn NestJS – Complete Course
2024年03月26日 
00:07:00 - 00:11:07
⌨️  Creating a Service - Learn NestJS – Complete Course

⌨️ Creating a Service

Learn NestJS – Complete Course
2024年03月26日 
00:11:07 - 00:18:09
⌨️  Creating ModuleModule 2 - Learn NestJS – Complete Course

⌨️ Creating ModuleModule 2

Learn NestJS – Complete Course
2024年03月26日 
00:18:09 - 00:24:27
⌨️  Middleware - Learn NestJS – Complete Course

⌨️ Middleware

Learn NestJS – Complete Course
2024年03月26日 
00:24:27 - 00:32:39
⌨️  Exception Filter - Learn NestJS – Complete Course

⌨️ Exception Filter

Learn NestJS – Complete Course
2024年03月26日 
00:32:39 - 00:43:07
⌨️  Transform param using ParseIntPipe - Learn NestJS – Complete Course

⌨️ Transform param using ParseIntPipe

Learn NestJS – Complete Course
2024年03月26日 
00:43:07 - 00:48:10
⌨️  Validate Request Body using class validatorModule 3 - Learn NestJS – Complete Course

⌨️ Validate Request Body using class validatorModule 3

Learn NestJS – Complete Course
2024年03月26日 
00:48:10 - 00:52:09
⌨️  Custom Providers - Learn NestJS – Complete Course

⌨️ Custom Providers

Learn NestJS – Complete Course
2024年03月26日 
00:52:09 - 01:15:26
⌨️  Injection Scopes - Learn NestJS – Complete Course

⌨️ Injection Scopes

Learn NestJS – Complete Course
2024年03月26日 
01:15:26 - 01:20:59
⌨️  One To Many RelationModule 4 - Learn NestJS – Complete Course

⌨️ One To Many RelationModule 4

Learn NestJS – Complete Course
2024年03月26日 
01:20:59 - 01:35:05
Something wrong with the order, cause in  One To Many Relation we already have part of code which will be in - Learn NestJS – Complete Course

Something wrong with the order, cause in One To Many Relation we already have part of code which will be in

Learn NestJS – Complete Course
2024年03月26日  @WanKy182 様 
01:20:59 - 01:43:42
we don't have song and user entity at that time, we haven't installed typeorm yet - Learn NestJS – Complete Course

we don't have song and user entity at that time, we haven't installed typeorm yet

Learn NestJS – Complete Course
2024年03月26日  @WanKy182 様 
01:22:10 - 13:56:30
⌨️  Establish Database Connection - Learn NestJS – Complete Course

⌨️ Establish Database Connection

Learn NestJS – Complete Course
2024年03月26日 
01:35:05 - 01:43:42
⌨️  Create an Entity - Learn NestJS – Complete Course

⌨️ Create an Entity

Learn NestJS – Complete Course
2024年03月26日 
01:43:42 - 01:50:43
Create an Entity - Learn NestJS – Complete Course

Create an Entity

Learn NestJS – Complete Course
2024年03月26日  @WanKy182 様 
01:43:42 - 13:56:30
⌨️  Create and Fetch records from Database - Learn NestJS – Complete Course

⌨️ Create and Fetch records from Database

Learn NestJS – Complete Course
2024年03月26日 
01:50:43 - 02:08:54
⌨️  PaginationModule 5 - Learn NestJS – Complete Course

⌨️ PaginationModule 5

Learn NestJS – Complete Course
2024年03月26日 
02:08:54 - 02:17:44
⌨️  One to One - Learn NestJS – Complete Course

⌨️ One to One

Learn NestJS – Complete Course
2024年03月26日 
02:17:44 - 02:24:14
⌨️  Many to Many relationModule 6 - Learn NestJS – Complete Course

⌨️ Many to Many relationModule 6

Learn NestJS – Complete Course
2024年03月26日 
02:24:14 - 02:43:51
⌨️  User Signup - Learn NestJS – Complete Course

⌨️ User Signup

Learn NestJS – Complete Course
2024年03月26日 
02:43:51 - 03:00:05
⌨️  User Login - Learn NestJS – Complete Course

⌨️ User Login

Learn NestJS – Complete Course
2024年03月26日 
03:00:05 - 03:08:12
⌨️  Authenticate User with Passport JWT - Learn NestJS – Complete Course

⌨️ Authenticate User with Passport JWT

Learn NestJS – Complete Course
2024年03月26日 
03:08:12 - 03:24:42
⌨️  Role Based Authentication - Learn NestJS – Complete Course

⌨️ Role Based Authentication

Learn NestJS – Complete Course
2024年03月26日 
03:24:42 - 03:46:51
⌨️  Two Factor Authentication - Learn NestJS – Complete Course

⌨️ Two Factor Authentication

Learn NestJS – Complete Course
2024年03月26日 
03:46:51 - 04:17:41
⌨️  API Key AuthenticationModule 7 - Learn NestJS – Complete Course

⌨️ API Key AuthenticationModule 7

Learn NestJS – Complete Course
2024年03月26日 
04:17:41 - 04:32:52
⌨️  Debug NestJS Application - Learn NestJS – Complete Course

⌨️ Debug NestJS Application

Learn NestJS – Complete Course
2024年03月26日 
04:32:52 - 04:37:00
⌨️  Migrations - Learn NestJS – Complete Course

⌨️ Migrations

Learn NestJS – Complete Course
2024年03月26日 
04:37:00 - 04:49:51
⌨️  SeedingModule 8 - Learn NestJS – Complete Course

⌨️ SeedingModule 8

Learn NestJS – Complete Course
2024年03月26日 
04:49:51 - 05:02:02
⌨️  Custom Configuration - Learn NestJS – Complete Course

⌨️ Custom Configuration

Learn NestJS – Complete Course
2024年03月26日 
05:02:02 - 05:24:29
⌨️  Validate Env Variables - Learn NestJS – Complete Course

⌨️ Validate Env Variables

Learn NestJS – Complete Course
2024年03月26日 
05:24:29 - 05:35:48
⌨️  Hot Module ReloadingModule 9 - Learn NestJS – Complete Course

⌨️ Hot Module ReloadingModule 9

Learn NestJS – Complete Course
2024年03月26日 
05:35:48 - 05:45:51
⌨️  Swagger Setup - Learn NestJS – Complete Course

⌨️ Swagger Setup

Learn NestJS – Complete Course
2024年03月26日 
05:45:51 - 05:52:30
⌨️  Document Signup Route - Learn NestJS – Complete Course

⌨️ Document Signup Route

Learn NestJS – Complete Course
2024年03月26日 
05:52:30 - 05:58:28
⌨️  Create Schema using ApiProperty - Learn NestJS – Complete Course

⌨️ Create Schema using ApiProperty

Learn NestJS – Complete Course
2024年03月26日 
05:58:28 - 06:02:54
⌨️  Test JWT AuthenticationModule 10 - Learn NestJS – Complete Course

⌨️ Test JWT AuthenticationModule 10

Learn NestJS – Complete Course
2024年03月26日 
06:02:54 - 06:11:40
⌨️  Install MongoDB using Docker Compose - Learn NestJS – Complete Course

⌨️ Install MongoDB using Docker Compose

Learn NestJS – Complete Course
2024年03月26日 
06:11:40 - 06:18:16
⌨️  Connect with MongoDB - Learn NestJS – Complete Course

⌨️ Connect with MongoDB

Learn NestJS – Complete Course
2024年03月26日 
06:18:16 - 06:21:24
⌨️  Create Schema - Learn NestJS – Complete Course

⌨️ Create Schema

Learn NestJS – Complete Course
2024年03月26日 
06:21:24 - 06:24:56
⌨️  Save Record in Mongo Collection - Learn NestJS – Complete Course

⌨️ Save Record in Mongo Collection

Learn NestJS – Complete Course
2024年03月26日 
06:24:56 - 06:33:08
⌨️  Find and Delete - Learn NestJS – Complete Course

⌨️ Find and Delete

Learn NestJS – Complete Course
2024年03月26日 
06:33:08 - 06:38:47
⌨️  PopulateModule 11 - Learn NestJS – Complete Course

⌨️ PopulateModule 11

Learn NestJS – Complete Course
2024年03月26日 
06:38:47 - 06:52:18
⌨️  Configure Dev and Production Env - Learn NestJS – Complete Course

⌨️ Configure Dev and Production Env

Learn NestJS – Complete Course
2024年03月26日 
06:52:18 - 07:01:22
⌨️  Push Source Code to Github Repo - Learn NestJS – Complete Course

⌨️ Push Source Code to Github Repo

Learn NestJS – Complete Course
2024年03月26日 
07:01:22 - 07:06:38
⌨️  Deploy NestJS Project to Railway - Learn NestJS – Complete Course

⌨️ Deploy NestJS Project to Railway

Learn NestJS – Complete Course
2024年03月26日 
07:06:38 - 07:15:44
⌨️  Install Dotenv to work with TypeORM migrations - Learn NestJS – Complete Course

⌨️ Install Dotenv to work with TypeORM migrations

Learn NestJS – Complete Course
2024年03月26日 
07:15:44 - 07:20:20
⌨️  Fixing Env BugsModule 12 - Learn NestJS – Complete Course

⌨️ Fixing Env BugsModule 12

Learn NestJS – Complete Course
2024年03月26日 
07:20:20 - 07:29:45
⌨️  Getting started with Jest - Learn NestJS – Complete Course

⌨️ Getting started with Jest

Learn NestJS – Complete Course
2024年03月26日 
07:29:45 - 07:37:22
⌨️  Auto Mocking - Learn NestJS – Complete Course

⌨️ Auto Mocking

Learn NestJS – Complete Course
2024年03月26日 
07:37:22 - 07:55:13
⌨️  SpyOn Function - Learn NestJS – Complete Course

⌨️ SpyOn Function

Learn NestJS – Complete Course
2024年03月26日 
07:55:13 - 08:05:49
⌨️  Unit Test Controller - Learn NestJS – Complete Course

⌨️ Unit Test Controller

Learn NestJS – Complete Course
2024年03月26日 
08:05:49 - 08:19:35
⌨️  Unit Test Service - Learn NestJS – Complete Course

⌨️ Unit Test Service

Learn NestJS – Complete Course
2024年03月26日 
08:19:35 - 08:28:19
⌨️  E2E TestingModule 13 - Learn NestJS – Complete Course

⌨️ E2E TestingModule 13

Learn NestJS – Complete Course
2024年03月26日 
08:28:19 - 08:41:58
⌨️  Speedy Web Compiler with NestJS v10 - Learn NestJS – Complete Course

⌨️ Speedy Web Compiler with NestJS v10

Learn NestJS – Complete Course
2024年03月26日 
08:41:58 - 08:50:31
⌨️  Creating Websocket Server - Learn NestJS – Complete Course

⌨️ Creating Websocket Server

Learn NestJS – Complete Course
2024年03月26日 
08:50:31 - 08:59:05
⌨️  Send Message from Frontend appModule 14 - Learn NestJS – Complete Course

⌨️ Send Message from Frontend appModule 14

Learn NestJS – Complete Course
2024年03月26日 
08:59:05 - 09:05:48
⌨️  GraphQL Server Setup - Learn NestJS – Complete Course

⌨️ GraphQL Server Setup

Learn NestJS – Complete Course
2024年03月26日 
09:05:48 - 09:13:43
⌨️  Define Queries and Mutations - Learn NestJS – Complete Course

⌨️ Define Queries and Mutations

Learn NestJS – Complete Course
2024年03月26日 
09:13:43 - 09:20:11
⌨️  Resolve Queries - Learn NestJS – Complete Course

⌨️ Resolve Queries

Learn NestJS – Complete Course
2024年03月26日 
09:20:11 - 09:25:42
⌨️  Resolve Mutations - Learn NestJS – Complete Course

⌨️ Resolve Mutations

Learn NestJS – Complete Course
2024年03月26日 
09:25:42 - 09:30:35
⌨️  Error HandlingModule 15 - Learn NestJS – Complete Course

⌨️ Error HandlingModule 15

Learn NestJS – Complete Course
2024年03月26日 
09:30:35 - 09:34:14
⌨️  Define Schema for Authentication - Learn NestJS – Complete Course

⌨️ Define Schema for Authentication

Learn NestJS – Complete Course
2024年03月26日 
09:34:14 - 09:42:13
⌨️  Resolve Auth Queries and Mutations - Learn NestJS – Complete Course

⌨️ Resolve Auth Queries and Mutations

Learn NestJS – Complete Course
2024年03月26日 
09:42:13 - 09:52:47
⌨️  Apply Authentication using Auth GuardModule 16 - Learn NestJS – Complete Course

⌨️ Apply Authentication using Auth GuardModule 16

Learn NestJS – Complete Course
2024年03月26日 
09:52:47 - 10:12:06
⌨️  Implement Real time SubscriptionModule 17 - Learn NestJS – Complete Course

⌨️ Implement Real time SubscriptionModule 17

Learn NestJS – Complete Course
2024年03月26日 
10:12:06 - 10:20:39
⌨️  Unit Test Resolver - Learn NestJS – Complete Course

⌨️ Unit Test Resolver

Learn NestJS – Complete Course
2024年03月26日 
10:20:39 - 10:32:02
⌨️  End to End Tesing GraphQL APIsModule 18 - Learn NestJS – Complete Course

⌨️ End to End Tesing GraphQL APIsModule 18

Learn NestJS – Complete Course
2024年03月26日 
10:32:02 - 10:46:55
⌨️  Server Side Caching using Apollo - Learn NestJS – Complete Course

⌨️ Server Side Caching using Apollo

Learn NestJS – Complete Course
2024年03月26日 
10:46:55 - 10:58:56
⌨️  Optimize Query Performance using Data Loader - Learn NestJS – Complete Course

⌨️ Optimize Query Performance using Data Loader

Learn NestJS – Complete Course
2024年03月26日 
10:58:56 - 11:14:06
⌨️  Fetching Data from External REST APIModule 19 - Learn NestJS – Complete Course

⌨️ Fetching Data from External REST APIModule 19

Learn NestJS – Complete Course
2024年03月26日 
11:14:06 - 11:20:56
⌨️  Setup Prisma - Learn NestJS – Complete Course

⌨️ Setup Prisma

Learn NestJS – Complete Course
2024年03月26日 
11:20:56 - 11:24:25
⌨️  Models and Migrations - Learn NestJS – Complete Course

⌨️ Models and Migrations

Learn NestJS – Complete Course
2024年03月26日 
11:24:25 - 11:28:08
⌨️  Generate Prisma Client - Learn NestJS – Complete Course

⌨️ Generate Prisma Client

Learn NestJS – Complete Course
2024年03月26日 
11:28:08 - 11:30:43
⌨️  Create, Find and FindOne - Learn NestJS – Complete Course

⌨️ Create, Find and FindOne

Learn NestJS – Complete Course
2024年03月26日 
11:30:43 - 11:40:57
⌨️  Update and Delete Operation - Learn NestJS – Complete Course

⌨️ Update and Delete Operation

Learn NestJS – Complete Course
2024年03月26日 
11:40:57 - 11:49:17
⌨️  One to Many Relation - Learn NestJS – Complete Course

⌨️ One to Many Relation

Learn NestJS – Complete Course
2024年03月26日 
11:49:17 - 12:00:54
⌨️  One to One Relation - Learn NestJS – Complete Course

⌨️ One to One Relation

Learn NestJS – Complete Course
2024年03月26日 
12:00:54 - 12:07:33
⌨️  Many to Many Relation - Learn NestJS – Complete Course

⌨️ Many to Many Relation

Learn NestJS – Complete Course
2024年03月26日 
12:07:33 - 12:20:35
⌨️  Bulk or Batch Operations - Learn NestJS – Complete Course

⌨️ Bulk or Batch Operations

Learn NestJS – Complete Course
2024年03月26日 
12:20:35 - 12:24:29
⌨️  Implement Transaction using Nested Queries - Learn NestJS – Complete Course

⌨️ Implement Transaction using Nested Queries

Learn NestJS – Complete Course
2024年03月26日 
12:24:29 - 12:32:56
⌨️  Interactive TransactionsModule 20 - Learn NestJS – Complete Course

⌨️ Interactive TransactionsModule 20

Learn NestJS – Complete Course
2024年03月26日 
12:32:56 - 12:46:08
⌨️  File Upload - Learn NestJS – Complete Course

⌨️ File Upload

Learn NestJS – Complete Course
2024年03月26日 
12:46:08 - 12:56:12
⌨️  Custom Decorator - Learn NestJS – Complete Course

⌨️ Custom Decorator

Learn NestJS – Complete Course
2024年03月26日 
12:56:12 - 13:02:03
⌨️  Scheduling CRON Task with Nest.js - Learn NestJS – Complete Course

⌨️ Scheduling CRON Task with Nest.js

Learn NestJS – Complete Course
2024年03月26日 
13:02:03 - 13:14:41
⌨️  Cookies - Learn NestJS – Complete Course

⌨️ Cookies

Learn NestJS – Complete Course
2024年03月26日 
13:14:41 - 13:23:03
⌨️  Queues - Learn NestJS – Complete Course

⌨️ Queues

Learn NestJS – Complete Course
2024年03月26日 
13:23:03 - 13:35:43
⌨️  Event Emitter - Learn NestJS – Complete Course

⌨️ Event Emitter

Learn NestJS – Complete Course
2024年03月26日 
13:35:43 - 13:47:13
⌨️  Streaming - Learn NestJS – Complete Course

⌨️ Streaming

Learn NestJS – Complete Course
2024年03月26日 
13:47:13 - 13:52:55
⌨️  Session - Learn NestJS – Complete Course

⌨️ Session

Learn NestJS – Complete Course
2024年03月26日 
13:52:55 - 13:56:30