- 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning

【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning

Transformer のモデル構造とその数理を完全に解説しました。このレベルの解説は他にないんじゃないかってくらい話しました。
結局行列と内積しか使ってないんですよ。すごくないですか?

※行列の転値は、「左上に小文字の t 」という文化で生きています。

☆お知らせ☆
AIcia Solid Project 公式HPが出来ました!!!
ht...
Transformer のモデル構造とその数理を完全に解説しました。このレベルの解説は他にないんじゃないかってくらい話しました。
結局行列と内積しか使ってないんですよ。すごくないですか?

※行列の転値は、「左上に小文字の t 」という文化で生きています。

☆お知らせ☆
AIcia Solid Project 公式HPが出来ました!!!
https://sites.google.com/view/aicia-official/top
HPでは私たちや動画コンテンツの紹介、板書データの公開などをしています。是非ご活用ください!!

▼関連動画
忙しい人向けはこちら → https://www.youtube.com/watch?v=FFoLqib6u-0
Multi-Head Attention は 15:27 から!

Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP

自然言語処理シリーズ https://www.youtube.com/playlist?list=PLhDAH9aTfnxL4XdCRjUCC0_flR00A6tJR

▼目次
公開後追加予定!

▼参考文献
Vaswani, Ashish, et al. "Attention is all you need." arXiv preprint arXiv:1706.03762 (2017).
https://arxiv.org/abs/1706.03762
原論文! やや数式は難解ですが、この動画を見終わった後なら読めるはず!
当時の問題意識や、Transformerの売りどころがたくさん書いてあります。
(個AI的には、論文タイトルは、内容の要約であるべきだよなーと思います。意見や感想じゃなくて。)

【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita https://qiita.com/LeftLetter/items/14b8f10b0ee98aa181b7
いろいろこれを参考にして動画を作っています

▼終わりに
ご視聴ありがとうございました!
面白かったら高評価、チャンネル登録お願いします。
動画の質問、感想などは、コメント欄やTwitterにどうぞ!
お仕事、コラボのご依頼は、TwitterのDMからお願い致します。
動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ )
動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ )

=======

Logo: TEICAさん ( https://twitter.com/T_E_I_C_A )
Model: http://3d.nicovideo.jp/works/td44519
Model by: W01fa さん ( https://twitter.com/W01fa )
動画乙。 親の顔より見たモデル(コロナ渦)。TransFormerはいろいろ記事があるけど、やっぱこの動画はわかりやすい。適用モデルが広く、精度も良い。本当、(計算リソースが潤沢であれば)つよつよモデル。 - 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning

動画乙。 親の顔より見たモデル(コロナ渦)。TransFormerはいろいろ記事があるけど、やっぱこの動画はわかりやすい。適用モデルが広く、精度も良い。本当、(計算リソースが潤沢であれば)つよつよモデル。

【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
2021年07月02日
00:05:25 - 00:39:35
辺りで、「入力単語列をベクトルの列に」とありますが、入力する行列の列に単語をベクトル化したものが入っていて、行数が単語数になっているのか、もしくはその逆なのかどちらでしょうか、、、?ご回答いただけると幸いです。 - 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning

辺りで、「入力単語列をベクトルの列に」とありますが、入力する行列の列に単語をベクトル化したものが入っていて、行数が単語数になっているのか、もしくはその逆なのかどちらでしょうか、、、?ご回答いただけると幸いです。

【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
2021年07月02日
00:09:16 - 00:39:35
一つ確認させていただきたいのですが、頃で仰っている「単語の次元のベクトル」というのは、「ボキャブラリーサイズの次元のベクトル」という理解で合っていますでしょうか? - 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning

一つ確認させていただきたいのですが、頃で仰っている「単語の次元のベクトル」というのは、「ボキャブラリーサイズの次元のベクトル」という理解で合っていますでしょうか?

【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
2021年07月02日
00:13:49 - 00:39:35
Multi-Head Attention は  から! - 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning

Multi-Head Attention は から!

【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
2021年07月02日
00:15:27 - 00:39:35
の説明ではqはベクトルなので出力もベクトルになるっていうのは理解できるんですけど - 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning

の説明ではqはベクトルなので出力もベクトルになるっていうのは理解できるんですけど

【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
2021年07月02日
00:18:39 - 00:39:35
の「次元の高いベクトルは長い」という日本語がよく分かりません...要素の分散が大きくなるからsqrt(d)でスケーリングしていると理解しているのですが、私の認識は合ってるでしょうか? - 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning

の「次元の高いベクトルは長い」という日本語がよく分かりません...要素の分散が大きくなるからsqrt(d)でスケーリングしていると理解しているのですが、私の認識は合ってるでしょうか?

【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
2021年07月02日
00:21:50 - 00:39:35
質問なのですが、あたりでベクトルの類似度を計算しているQKだが、次元が高くなると値が大きくなってしまうため、純粋な類似度を計算する為にroot(d)で割るという話があったと思うのですが、どうしてroot(d)で割ると純粋な類似度が計算できるのでしょうか? - 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning

質問なのですが、あたりでベクトルの類似度を計算しているQKだが、次元が高くなると値が大きくなってしまうため、純粋な類似度を計算する為にroot(d)で割るという話があったと思うのですが、どうしてroot(d)で割ると純粋な類似度が計算できるのでしょうか?

【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
2021年07月02日
00:22:30 - 00:39:35
いまいち分からないのがのhead_iは横ベクトルと説明なされてましたが、scaled dot productの説明から行くと横ベクトルが縦に並んだ行列と思ったのですがどういった理解が正しいのでしょうか? - 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning

いまいち分からないのがのhead_iは横ベクトルと説明なされてましたが、scaled dot productの説明から行くと横ベクトルが縦に並んだ行列と思ったのですがどういった理解が正しいのでしょうか?

【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
2021年07月02日
00:29:10 - 00:39:35
付近の内容で、ひとつ気になった事があるので質問させていただきます。Multi-Head AttentionにおけるW_Oの重みを掛ける操作の必要性(意味)を教えていただけますでしょうか。単に著者が定義したものであり、天下り的に受け入れるべきものなのでしょうか。 - 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning

付近の内容で、ひとつ気になった事があるので質問させていただきます。Multi-Head AttentionにおけるW_Oの重みを掛ける操作の必要性(意味)を教えていただけますでしょうか。単に著者が定義したものであり、天下り的に受け入れるべきものなのでしょうか。

【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
2021年07月02日
00:29:10 - 00:39:35
ずっと疑問でしたが、辺りでそこを解説して下さっていて、私にとっては非常にためになりました。詰むポイント?を丁寧に解説してくださり、とてもありがたかったです。 - 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning

ずっと疑問でしたが、辺りでそこを解説して下さっていて、私にとっては非常にためになりました。詰むポイント?を丁寧に解説してくださり、とてもありがたかったです。

【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
2021年07月02日
00:31:50 - 00:39:35
わかりやすかったです!とても勉強になりました.質問なのですが,あたりにて「ベクトルを回転させてぶつけることによってXの注目の仕方を変える」といった説明がいまいち理解できませんでした.ここの部分を理解するにはどういった知識が必要でしょうか,また参考にできる資料があれば教えていただきたいです. - 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning

わかりやすかったです!とても勉強になりました.質問なのですが,あたりにて「ベクトルを回転させてぶつけることによってXの注目の仕方を変える」といった説明がいまいち理解できませんでした.ここの部分を理解するにはどういった知識が必要でしょうか,また参考にできる資料があれば教えていただきたいです.

【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
2021年07月02日
00:35:00 - 00:39:35
AIcia Solid Project

AIcia Solid Project

🎉 37,000 人達成! 🎉

【予測】4万人まであと91日(2023年1月3日)

チャンネル登録 RSS
データサイエンスVtuber アイシア=ソリッド(Aicia Solid)です。
機械学習、統計、ディープラーニング、AIの動画に加えて、たまに趣味で数学の動画をアップしています。

公式サイトはこちら → https://sites.google.com/view/aicia-official/top

動画の質問、感想等ございましたら、コメント欄やTwitterにどうぞ!
お...
データサイエンスVtuber アイシア=ソリッド(Aicia Solid)です。
機械学習、統計、ディープラーニング、AIの動画に加えて、たまに趣味で数学の動画をアップしています。

公式サイトはこちら → https://sites.google.com/view/aicia-official/top

動画の質問、感想等ございましたら、コメント欄やTwitterにどうぞ!
お仕事、コラボのご依頼は、TwitterのDMからお願い致します。

Twitter: https://twitter.com/AIcia_Solid/
Editor: AIris Solid (妹) https://twitter.com/AIris_Solid/
Logo: TEICAさん https://twitter.com/T_E_I_C_A
Model: http://3d.nicovideo.jp/works/td44519
Model by: W01fa さん https://twitter.com/W01fa

(※ニコニ立体ちゃん公式(株式会社ドワンゴ)とは繋がりのない個人のProjectです。)

Timetable

動画タイムテーブル

動画数:98件

OP - 【共分散行列の代数】よく使う事実の背後には抽象数学の透明な美しさがあります【行列12分散・共分散行列】 #145 #VRアカデミア #線型代数入門

OP

【共分散行列の代数】よく使う事実の背後には抽象数学の透明な美しさがあります【行列12分散・共分散行列】 #145 #VRアカデミア #線型代数入門
2022年09月25日
00:00:00 - 00:01:31
記号と設定の確認 - 【共分散行列の代数】よく使う事実の背後には抽象数学の透明な美しさがあります【行列12分散・共分散行列】 #145 #VRアカデミア #線型代数入門

記号と設定の確認

【共分散行列の代数】よく使う事実の背後には抽象数学の透明な美しさがあります【行列12分散・共分散行列】 #145 #VRアカデミア #線型代数入門
2022年09月25日
00:01:31 - 00:03:43
データ行列Xと分散・共分散行列∑ - 【共分散行列の代数】よく使う事実の背後には抽象数学の透明な美しさがあります【行列12分散・共分散行列】 #145 #VRアカデミア #線型代数入門

データ行列Xと分散・共分散行列∑

【共分散行列の代数】よく使う事実の背後には抽象数学の透明な美しさがあります【行列12分散・共分散行列】 #145 #VRアカデミア #線型代数入門
2022年09月25日
00:03:43 - 00:13:19
データ行列と変数X_a, X_b - 【共分散行列の代数】よく使う事実の背後には抽象数学の透明な美しさがあります【行列12分散・共分散行列】 #145 #VRアカデミア #線型代数入門

データ行列と変数X_a, X_b

【共分散行列の代数】よく使う事実の背後には抽象数学の透明な美しさがあります【行列12分散・共分散行列】 #145 #VRアカデミア #線型代数入門
2022年09月25日
00:13:19 - 00:17:24
本日のメインディッシュ(数式) - 【共分散行列の代数】よく使う事実の背後には抽象数学の透明な美しさがあります【行列12分散・共分散行列】 #145 #VRアカデミア #線型代数入門

本日のメインディッシュ(数式)

【共分散行列の代数】よく使う事実の背後には抽象数学の透明な美しさがあります【行列12分散・共分散行列】 #145 #VRアカデミア #線型代数入門
2022年09月25日
00:17:24 - 00:21:28
本日のまとめ - 【共分散行列の代数】よく使う事実の背後には抽象数学の透明な美しさがあります【行列12分散・共分散行列】 #145 #VRアカデミア #線型代数入門

本日のまとめ

【共分散行列の代数】よく使う事実の背後には抽象数学の透明な美しさがあります【行列12分散・共分散行列】 #145 #VRアカデミア #線型代数入門
2022年09月25日
00:21:28 - 00:24:20
ED - 【共分散行列の代数】よく使う事実の背後には抽象数学の透明な美しさがあります【行列12分散・共分散行列】 #145 #VRアカデミア #線型代数入門

ED

【共分散行列の代数】よく使う事実の背後には抽象数学の透明な美しさがあります【行列12分散・共分散行列】 #145 #VRアカデミア #線型代数入門
2022年09月25日
00:24:20 - 00:25:23
右は常に反転ですねー - 【量子計算③】2量子ビットと量子計算における関数【ユニタリでないと実現できない】 #144 #VRアカデミア #量子計算 #量子コンピューター

右は常に反転ですねー

【量子計算③】2量子ビットと量子計算における関数【ユニタリでないと実現できない】 #144 #VRアカデミア #量子計算 #量子コンピューター
2022年09月17日
00:19:45 - 00:25:01
OP - 【共分散行列の意味】共分散行列はベクトルに変数としての魂を与える【行列11分散・共分散行列】 #143 #VRアカデミア #線型代数入門

OP

【共分散行列の意味】共分散行列はベクトルに変数としての魂を与える【行列11分散・共分散行列】 #143 #VRアカデミア #線型代数入門
2022年09月09日
00:00:00 - 00:01:01
記号と設定の確認 - 【共分散行列の意味】共分散行列はベクトルに変数としての魂を与える【行列11分散・共分散行列】 #143 #VRアカデミア #線型代数入門

記号と設定の確認

【共分散行列の意味】共分散行列はベクトルに変数としての魂を与える【行列11分散・共分散行列】 #143 #VRアカデミア #線型代数入門
2022年09月09日
00:01:01 - 00:02:19
共分散を計算しよう(チュートリアル) - 【共分散行列の意味】共分散行列はベクトルに変数としての魂を与える【行列11分散・共分散行列】 #143 #VRアカデミア #線型代数入門

共分散を計算しよう(チュートリアル)

【共分散行列の意味】共分散行列はベクトルに変数としての魂を与える【行列11分散・共分散行列】 #143 #VRアカデミア #線型代数入門
2022年09月09日
00:02:19 - 00:05:01
共分散を計算しよう(本題) - 【共分散行列の意味】共分散行列はベクトルに変数としての魂を与える【行列11分散・共分散行列】 #143 #VRアカデミア #線型代数入門

共分散を計算しよう(本題)

【共分散行列の意味】共分散行列はベクトルに変数としての魂を与える【行列11分散・共分散行列】 #143 #VRアカデミア #線型代数入門
2022年09月09日
00:05:01 - 00:13:23
本日のまとめ - 【共分散行列の意味】共分散行列はベクトルに変数としての魂を与える【行列11分散・共分散行列】 #143 #VRアカデミア #線型代数入門

本日のまとめ

【共分散行列の意味】共分散行列はベクトルに変数としての魂を与える【行列11分散・共分散行列】 #143 #VRアカデミア #線型代数入門
2022年09月09日
00:13:23 - 00:16:45
ED - 【共分散行列の意味】共分散行列はベクトルに変数としての魂を与える【行列11分散・共分散行列】 #143 #VRアカデミア #線型代数入門

ED

【共分散行列の意味】共分散行列はベクトルに変数としての魂を与える【行列11分散・共分散行列】 #143 #VRアカデミア #線型代数入門
2022年09月09日
00:16:45 - 00:18:30
量子とベイズって何が違うんすか……()というダメ人間ですが楽しみです - 【量子計算】量子ビットと確率【重ね合わせの原理をちゃんと理解しよう!】 #140 #VRアカデミア #量子計算 #量子コンピューター

量子とベイズって何が違うんすか……()というダメ人間ですが楽しみです

【量子計算】量子ビットと確率【重ね合わせの原理をちゃんと理解しよう!】 #140 #VRアカデミア #量子計算 #量子コンピューター
2022年08月12日
00:02:00 - 00:20:57
1つ希望があるのですが、もしよろしければのような下限ぎりぎりに出す場合は背景の透過を切るようにしていただけませんか。少し見にくいと思いました。 - 【量子計算】量子ビットと確率【重ね合わせの原理をちゃんと理解しよう!】 #140 #VRアカデミア #量子計算 #量子コンピューター

1つ希望があるのですが、もしよろしければのような下限ぎりぎりに出す場合は背景の透過を切るようにしていただけませんか。少し見にくいと思いました。

【量子計算】量子ビットと確率【重ね合わせの原理をちゃんと理解しよう!】 #140 #VRアカデミア #量子計算 #量子コンピューター
2022年08月12日
00:07:12 - 00:20:57
〜本編ここまで飛ばすとよろし - 【LIVE】内容と見どころを紹介するよ!【分析モデル本配信】 #VRアカデミア

〜本編ここまで飛ばすとよろし

【LIVE】内容と見どころを紹介するよ!【分析モデル本配信】 #VRアカデミア
2022年07月31日
00:14:36 - 01:45:46
私も線形微分方程式の計算などで対角化にはお世話になってます。「ベクトルに行列を何回も書ける」はKrylov部分空間法でおなじみですね。もちろん、実務でバリバリ役立ってます(FFTなどと並んで20世紀のTop10アルゴリズムに数えられているとかなんとか)。 - 【対角化の計算規則】Aはpiをλi倍するのです - 哲学の次は計算を学ぼう【行列⑦対角化】 #136 #VRアカデミア #線型代数入門

私も線形微分方程式の計算などで対角化にはお世話になってます。「ベクトルに行列を何回も書ける」はKrylov部分空間法でおなじみですね。もちろん、実務でバリバリ役立ってます(FFTなどと並んで20世紀のTop10アルゴリズムに数えられているとかなんとか)。

【対角化の計算規則】Aはpiをλi倍するのです - 哲学の次は計算を学ぼう【行列⑦対角化】 #136 #VRアカデミア #線型代数入門
2022年06月24日
00:07:20 - 00:12:17
Regarding ,what if matrix A has identical column vectors?ex:when:A = [1 13 3]a1 = [13] - 【逆行列攻略!】逆行列は縦ベクトルを1に戻すんです【行列④逆行列の基本公式】 #133 #VRアカデミア #線型代数入門

Regarding ,what if matrix A has identical column vectors?ex:when:A = [1 13 3]a1 = [13]

【逆行列攻略!】逆行列は縦ベクトルを1に戻すんです【行列④逆行列の基本公式】 #133 #VRアカデミア #線型代数入門
2022年05月13日
00:03:22 - 00:16:22
Interestingly, once I’ve got the view, all the combinations of matrix and vector look like examples at  ! - 【Axって何だろう?】行列とベクトルの積は電車の乗り継ぎ【行列②行列とベクトルの積】 #131 #VRアカデミア #線型代数入門

Interestingly, once I’ve got the view, all the combinations of matrix and vector look like examples at !

【Axって何だろう?】行列とベクトルの積は電車の乗り継ぎ【行列②行列とベクトルの積】 #131 #VRアカデミア #線型代数入門
2022年04月15日
00:04:50 - 00:10:52
R^mは実数のm次元ベクトルという意味ですか? - 【線形代数シリーズ開始!】行列の理解はまずここから!【行列①単位ベクトルの行き先】 #130 #VRアカデミア #線型代数入門

R^mは実数のm次元ベクトルという意味ですか?

【線形代数シリーズ開始!】行列の理解はまずここから!【行列①単位ベクトルの行き先】 #130 #VRアカデミア #線型代数入門
2022年03月11日
00:03:05 - 00:11:29
OP - 【数量化IV類の数理】対称行列を直交行列で対角化するだけです【数量化理論 - 数理編 vol. 9】 #128 #VRアカデミア

OP

【数量化IV類の数理】対称行列を直交行列で対角化するだけです【数量化理論 - 数理編 vol. 9】 #128 #VRアカデミア
2022年02月11日
00:00:00 - 00:00:45
数量化Ⅳ類のおさらい - 【数量化IV類の数理】対称行列を直交行列で対角化するだけです【数量化理論 - 数理編 vol. 9】 #128 #VRアカデミア

数量化Ⅳ類のおさらい

【数量化IV類の数理】対称行列を直交行列で対角化するだけです【数量化理論 - 数理編 vol. 9】 #128 #VRアカデミア
2022年02月11日
00:00:45 - 00:01:36
状況設定と問題の定式化 - 【数量化IV類の数理】対称行列を直交行列で対角化するだけです【数量化理論 - 数理編 vol. 9】 #128 #VRアカデミア

状況設定と問題の定式化

【数量化IV類の数理】対称行列を直交行列で対角化するだけです【数量化理論 - 数理編 vol. 9】 #128 #VRアカデミア
2022年02月11日
00:01:36 - 00:06:59
最適化問題を解く! - 【数量化IV類の数理】対称行列を直交行列で対角化するだけです【数量化理論 - 数理編 vol. 9】 #128 #VRアカデミア

最適化問題を解く!

【数量化IV類の数理】対称行列を直交行列で対角化するだけです【数量化理論 - 数理編 vol. 9】 #128 #VRアカデミア
2022年02月11日
00:06:59 - 00:13:58
まとめ - 【数量化IV類の数理】対称行列を直交行列で対角化するだけです【数量化理論 - 数理編 vol. 9】 #128 #VRアカデミア

まとめ

【数量化IV類の数理】対称行列を直交行列で対角化するだけです【数量化理論 - 数理編 vol. 9】 #128 #VRアカデミア
2022年02月11日
00:13:58 - 00:19:13