RSS

「時系列」 - おすすめピックアップ動画

※本サイトに掲載されているチャンネル情報や動画情報はYouTube公式のAPIを使って取得・表示しています。

Videos

動画一覧

動画数:76件

【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning

【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning

Transformer のモデル構造とその数理を完全に解説しました。このレベルの解説は他にないんじゃないかってくらい話しました。 結局行列と内積しか使ってないんですよ。すごくないですか? ※行列の転値は、「左上に小文字の t 」という文化で生きています。 ☆お知らせ☆ AIcia Solid Project 公式HPが出来ました!!! https://sites.google.com/view/aicia-official/top HPでは私たちや動画コンテンツの紹介、板書データの公開などをしています。是非ご活用ください!! ▼関連動画 忙しい人向けはこちら → https://www.youtube.com/watch?v=FFoLqib6u-0 Multi-Head Attention は 15:27 から! Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP 自然言語処理シリーズ https://www.youtube.com/playlist?list=PLhDAH9aTfnxL4XdCRjUCC0_flR00A6tJR ▼目次 公開後追加予定! ▼参考文献 Vaswani, Ashish, et al. "Attention is all you need." arXiv preprint arXiv:1706.03762 (2017). https://arxiv.org/abs/1706.03762 原論文! やや数式は難解ですが、この動画を見終わった後なら読めるはず! 当時の問題意識や、Transformerの売りどころがたくさん書いてあります。 (個AI的には、論文タイトルは、内容の要約であるべきだよなーと思います。意見や感想じゃなくて。) 【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita https://qiita.com/LeftLetter/items/14b8f10b0ee98aa181b7 いろいろこれを参考にして動画を作っています ▼終わりに ご視聴ありがとうございました! 面白かったら高評価、チャンネル登録お願いします。 動画の質問、感想などは、コメント欄やTwitterにどうぞ! お仕事、コラボのご依頼は、TwitterのDMからお願い致します。 動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ ) 動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ ) ======= Logo: TEICAさん ( https://twitter.com/T_E_I_C_A ) Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん ( https://twitter.com/W01fa )
2021年07月02日
00:00:00 - 00:39:35
【深層学習】Attention - 全領域に応用され最高精度を叩き出す注意機構の仕組み【ディープラーニングの世界 vol. 24】#095 #VRアカデミア #DeepLearning

【深層学習】Attention - 全領域に応用され最高精度を叩き出す注意機構の仕組み【ディープラーニングの世界 vol. 24】#095 #VRアカデミア #DeepLearning

▼テーマ Transformer や BERT で爆発的な利用を獲得した Attention の祖となるネットワーク RNNsearch について解説します。 Attention は自然言語で GPT-3 の化け物的な精度を出したのみならず、画像や生成モデルなど、超広い領域に応用されています。 今の Deep Learning を語る上では外せない要素! 要チェック! ▼関連プレイリスト Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP 自然言語処理シリーズ https://www.youtube.com/playlist?list=PLhDAH9aTfnxL4XdCRjUCC0_flR00A6tJR ▼目次 (後で追加します。暫くお待ちください) ▼参考文献 Bahdanau, Dzmitry, Kyunghyun Cho, and Yoshua Bengio. "Neural machine translation by jointly learning to align and translate." arXiv preprint arXiv:1409.0473 (2014). https://arxiv.org/abs/1409.0473 原論文です! 当時の歴史も含めて、過度に難解でない感じで書いてあるので、読んでみてもいいかも! 【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita https://qiita.com/LeftLetter/items/14b8f10b0ee98aa181b7 いろいろこれを参考にして動画を作っています ▼参考動画 RNN の動画 → https://www.youtube.com/watch?v=NJdrYvYgaPM&list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP&index=8 GRU の動画 → https://www.youtube.com/watch?v=K8ktkhAEuLM&list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP&index=10 RNN の3つの使い方(BiGRU のところよくわからなかった人向け) → https://www.youtube.com/watch?v=IcCIu5Gx6uA&list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP&index=9 Bi-LSTM の動画( Bi-GRU の仲間) → https://www.youtube.com/watch?v=O1PCh_aaprE&list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP&index=12 ▼終わりに ご視聴ありがとうございました! 面白かったら高評価、チャンネル登録お願いします。 動画の質問、感想などは、コメント欄やTwitterにどうぞ! お仕事、コラボのご依頼は、TwitterのDMからお願い致します。 動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ ) 動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ ) ======= Logo: TEICAさん ( https://twitter.com/T_E_I_C_A ) Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん ( https://twitter.com/W01fa )
2021年03月26日
00:00:00 - 00:36:37
【深層学習】GPT - 伝説の始まり。事前学習とファインチューニングによるパラダイムシフト【ディープラーニングの世界vol.31】#109 #VRアカデミア #DeepLearning

【深層学習】GPT - 伝説の始まり。事前学習とファインチューニングによるパラダイムシフト【ディープラーニングの世界vol.31】#109 #VRアカデミア #DeepLearning

GPT-2, GPT-3,... へと続いていく GPT シリーズの1つめです。 事前学習とファインチューニングのパラダイムを決定づけた研究の1つだと思います! ☆お知らせ☆ AIcia Solid Project 公式HPが出来ました!!! https://sites.google.com/view/aicia-official/top HPでは私たちや動画コンテンツの紹介、板書データの公開などをしています。是非ご活用ください!! ▼関連動画 Transformer の動画はこちら! https://www.youtube.com/watch?v=50XvMaWhiTY 忙しい人向け → https://www.youtube.com/watch?v=FFoLqib6u-0 Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP 自然言語処理シリーズ https://www.youtube.com/playlist?list=PLhDAH9aTfnxL4XdCRjUCC0_flR00A6tJR ▼目次 公開後追加予定! ▼参考文献 Radford, Alec, et al. "Improving language understanding by generative pre-training." (2018). https://www.cs.ubc.ca/~amuham01/LING530/papers/radford2018improving.pdf 原論文! 研究者がまだふつーの反応をしていた頃。ある意味貴重な時代! 【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita https://qiita.com/LeftLetter/items/14b8f10b0ee98aa181b7 いろいろこれを参考にして動画を作っています ▼終わりに ご視聴ありがとうございました! 面白かったら高評価、チャンネル登録お願いします。 動画の質問、感想などは、コメント欄やTwitterにどうぞ! お仕事、コラボのご依頼は、TwitterのDMからお願い致します。 動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ ) 動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ ) ======= Logo: TEICAさん ( https://twitter.com/T_E_I_C_A ) Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん ( https://twitter.com/W01fa )
2021年07月24日
00:00:00 - 00:25:30
【深層学習】忙しい人のための Transformer と Multi-Head Attention【ディープラーニングの世界 vol.29 】#107 #VRアカデミア #DeepLearning

【深層学習】忙しい人のための Transformer と Multi-Head Attention【ディープラーニングの世界 vol.29 】#107 #VRアカデミア #DeepLearning

忙しくない人向けの完全版はこちら! → https://youtube.com/watch?v=50XvMaWhiTY Transformer とその基幹である Multi-Head Attention を、忙しい人向けに結構なスピード感で解説しました。10分以内部門(?)では最も深く(分かりやすく?)数式の解説をしたものだと思います! (この動画は、完全版の復習に使うのが丁度いいかもしれません) ※行列の転値は、「左上に小文字の t 」という文化で生きています。 ☆お知らせ☆ AIcia Solid Project 公式HPが出来ました!!! https://sites.google.com/view/aicia-official/top HPでは私たちや動画コンテンツの紹介、板書データの公開などをしています。是非ご活用ください!! ▼関連動画 Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP 自然言語処理シリーズ https://www.youtube.com/playlist?list=PLhDAH9aTfnxL4XdCRjUCC0_flR00A6tJR ▼目次 公開後追加予定! ▼参考文献 Vaswani, Ashish, et al. "Attention is all you need." arXiv preprint arXiv:1706.03762 (2017). https://arxiv.org/abs/1706.03762 原論文! やや数式は難解ですが、この動画を見終わった後なら読めるはず! 当時の問題意識や、Transformerの売りどころがたくさん書いてあります。 (個AI的には、論文タイトルは、内容の要約であるべきだよなーと思います。意見や感想じゃなくて。) 【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita https://qiita.com/LeftLetter/items/14b8f10b0ee98aa181b7 いろいろこれを参考にして動画を作っています ▼終わりに ご視聴ありがとうございました! 面白かったら高評価、チャンネル登録お願いします。 動画の質問、感想などは、コメント欄やTwitterにどうぞ! お仕事、コラボのご依頼は、TwitterのDMからお願い致します。 動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ ) 動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ ) ======= Logo: TEICAさん ( https://twitter.com/T_E_I_C_A ) Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん ( https://twitter.com/W01fa )
2021年07月09日
00:00:00 - 00:06:58
【深層学習】word2vec - 単語の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 21】#089 #VRアカデミア #DeepLearning

【深層学習】word2vec - 単語の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 21】#089 #VRアカデミア #DeepLearning

▼テーマ 単語をベクトルで表す単語分散表現の中で最も有名な word2vec の紹介です。 word2vec は4種のアルゴリズムの総称です。 それぞれを丁寧に説明していきます。 ▼関連プレイリスト Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP 自然言語処理シリーズ https://www.youtube.com/playlist?list=PLhDAH9aTfnxL4XdCRjUCC0_flR00A6tJR ▼目次 00:00 OP ==== 1.単語分散表現 ==== 02:06 1-1 単語分散表現って何? 03:56 1-2 分散表現が得られると何が便利なのか? ==== 2.word2vec ==== 08:31 2-1 引用論文紹介 09:14 2-2 引っかかりポイント①:word2vecは総称 11:45 2-3 CBOWはどんなタスクを解くのか? 14:00 2-4 引っかかりポイント②:目的とやってることのズレ 16:33 2-5 CBOWのモデル解説 20:21 2-6 ここまでのストーリーと残る謎のおさらい 21:51 2-7 学習結果から分散表現を手に入れる 25:40 2-8 ここまでのまとめ 26:54 2-9 skip-gramが解くタスクとモデル解説 30:30 2-10 2つの高速化の手法とアイデア紹介 34:49 2-11 今日のまとめ 36:02 ED ==== 3.なぜ単語の演算ができるのか? ==== ...は次回です! お楽しみに! ▼参考文献 Mikolov, Tomas, et al. "Efficient estimation of word representations in vector space." arXiv preprint arXiv:1301.3781 (2013). https://arxiv.org/abs/1301.3781 現論文はこちら! これを読めば、 word2vec が複数のモデルの総称であることは一目瞭然! Mikolov, Tomas, et al. "Distributed representations of words and phrases and their compositionality." Advances in neural information processing systems 26 (2013): 3111-3119. https://papers.nips.cc/paper/2013/file/9aa42b31882ec039965f3c4923ce901b-Paper.pdf negative sampling について書かれています。 Mikolov さん大活躍ですね Morin, Frederic, and Yoshua Bengio. "Hierarchical probabilistic neural network language model." Aistats. Vol. 5. 2005. http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.221.8829&rep=rep1&type=pdf#page=255 Hierarchical Softmax は実は2005年の論文から存在しています。 詳細が知りたい方はこちらをどうぞ! 【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita https://qiita.com/LeftLetter/items/14b8f10b0ee98aa181b7 シリーズ構成で大変参考にしております。色々まとまってて good です! ▼終わりに ご視聴ありがとうございました! 面白かったら高評価、チャンネル登録お願いします。 動画の質問、感想などは、コメント欄やTwitterにどうぞ! お仕事、コラボのご依頼は、TwitterのDMからお願い致します。 動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ ) 動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ ) ======= Logo: TEICAさん ( https://twitter.com/T_E_I_C_A ) Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん ( https://twitter.com/W01fa )
2021年01月29日
00:00:00 - 00:36:52
Pythonで時系列データの未来予測をしてみよう〜SARIMAなど〜【時系列分析#3】

Pythonで時系列データの未来予測をしてみよう〜SARIMAなど〜【時系列分析#3】

今回は「モデリング」と言われる技術を使って、時系列の未来予測をやっていきます。 この動画ではAR、MA、ARMA、ARIMA、SARIMA、SARIMAXといった時系列モデルを扱います。 ※途中、ぐだぐだな部分がありますがご了承ください。。。 0:00 時系列予測の基礎知識 7:00 AR、MA、ARMA 12:24 ARMA以前のグリッドサーチ 14:33 ARIMA、SARIMA、SARIMAX 18:49 ARIMA以降のグリッドサーチ 29:04 ホワイトノイズの確認 33:38 未来予測 【キーワード】 AIC(赤池情報量規準) #データサイエンス
2021年08月08日
00:00:00 - 00:37:08
Deep Learning入門:Recurrent Neural Networksとは?

Deep Learning入門:Recurrent Neural Networksとは?

この動画では、Recurrent Neural Networks (RNN) 入門として、その基礎を解説しています。 次の動画(Generative Adversarial Networks(GAN)とは?)はこちら https://www.youtube.com/watch?v=2rC2_-HtpsQ 前回の動画(ニューラルネットワーク学習の仕組み)はこちら https://www.youtube.com/watch?v=r8bbe273vEs 再生リスト「Deep Learning入門」 https://www.youtube.com/playlist?list=PLg1wtJlhfh23pjdFv4p8kOBYyTRvzseZ3 Neural Network Console https://dl.sony.com/ja/ Neural Network Libraries https://nnabla.org/ja/ #Deep Learning #Neural Network #Neural Network Console #Neural Network Libraries #Sony #AI #深層学習 #ディープラーニング #ニュールネットワーク #ソニー #人工知能 #RNN #リカレントニューラルネットワーク #Back propagation through time #BPTT #Elman net #Many to many #Many to one #One to Many #時系列データ #time-series data #深層学習入門 #ディープラーニング入門 #introduction
2019年05月24日
00:00:00 - 00:06:25
【時系列分析③】ARMA過程と誤差項の意味【ついに時系列の始まり!】 #VRアカデミア #033

【時系列分析③】ARMA過程と誤差項の意味【ついに時系列の始まり!】 #VRアカデミア #033

いよいよ時系列分析の始まりです。 今日は登場人物紹介と、誤差項に秘められた意味について解説します。 時系列分析シリーズ : 時系列分析: https://www.youtube.com/playlist?list=PLhDAH9aTfnxJV9Az0hJs0Ralu2N81mO8R 参考文献: 現場ですぐ使える時系列データ分析 ~データサイエンティストのための基礎知識~ : https://amzn.to/2xeqCnW 経済・ファイナンスデータの計量時系列分析 (統計ライブラリー) : https://amzn.to/2xb0cnf 確率システム入門 (システム制御情報ライブラリー) : https://amzn.to/2xd9Y8d 確率微分方程式 | B.エクセンダール : https://amzn.to/2Fx1fSK ======== C95 出店しました! 現在、叶数理さんの BOOTH で頒布しております! https://next-nexus.booth.pm/ 豪華執筆者による合同誌と、私達のグッズがあります! ( Twitter したことある数学徒さんならわかると思います、、、!) ======== Twitter: https://twitter.com/AIcia_Solid/ Logo: TEICAさん https://twitter.com/T_E_I_C_A Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん https://twitter.com/W01fa #AIciaSolidProject #VRアカデミア #Vtuber #時系列分析 #自己回帰過程 #移動平均過程 #自己回帰移動平均過程 #AR process #MA process #ARMA process
2019年06月26日
00:00:00 - 00:25:06
【逆行列②】逆行列は成分抽出なのです【行列⑤逆行列の真髄】 #134 #VRアカデミア #線型代数入門

【逆行列②】逆行列は成分抽出なのです【行列⑤逆行列の真髄】 #134 #VRアカデミア #線型代数入門

行列をわかりやすく理解するシリーズを始めます。 A^{-1} x を計算すると、x を a_i で表したときの係数がわかります。 各成分がどれくらいあるかを抽出してるのです。便利ですね(^o^) ▼関連資料 線型代数基礎シリーズ - YouTube プレイリスト https://www.youtube.com/playlist?list=PLhDAH9aTfnxKfmufxF59vaZECZJD5j6rd 線型代数つまみぐい - YouTube プレイリスト (実践を通して線型代数を色々見てますー) https://www.youtube.com/playlist?list=PLhDAH9aTfnxKW4fdRvBu3P3cMPpxSXEu1 ▼関連動画 【時系列分析②】漸化式と線型代数その2 ~固有値、固有ベクトル、対角化を攻略!~【めざせ線型代数マスター!】 #VRアカデミア #024 - YouTube https://www.youtube.com/watch?v=P_204LIcsFk ▼目次 そのうち! ▼参考文献 そのうち書きます! おすすめじゃないラスボス 線形代数の世界―抽象数学の入り口 (大学数学の入門) https://amzn.to/3MGaIIq ▼終わりに ご視聴ありがとうございました! 面白かったら高評価、チャンネル登録お願いします。 動画の質問、感想などは、コメント欄やTwitterにどうぞ! お仕事、コラボのご依頼は、公式 WebPage や TwitterのDMからお願い致します。 AIcia Solid Project - Official Website - https://sites.google.com/view/aicia-official/top 動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ ) 動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ ) ======= Logo: ChikakoHorioさん ( https://twitter.com/ChikakoHorio ) Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん ( https://twitter.com/W01fa )
2022年05月27日
00:00:00 - 00:17:06
Deep Learning入門:数式なしで理解するLSTM (Long short-term memory)

Deep Learning入門:数式なしで理解するLSTM (Long short-term memory)

この動画では、Recurrent Neural Networks (RNN)の最もポピュラーな構成であるLSTMについて解説します。 次の動画:Transfer Learning(転移学習) https://www.youtube.com/watch?v=sEYNDW9KSqc 前回の動画:Generative Adversarial Networks (GAN)とは? https://www.youtube.com/watch?v=2rC2_-HtpsQ Recurrent Neural Networksとは? https://www.youtube.com/watch?v=yvqgQZIUAKg ニューラルネットワーク学習の仕組み https://www.youtube.com/watch?v=r8bbe273vEs ニューラルネットワークの多層化テクニック https://www.youtube.com/watch?v=X2KWO1UPqxk 再生リスト「Deep Learning入門」 https://www.youtube.com/playlist?list=PLg1wtJlhfh23pjdFv4p8kOBYyTRvzseZ3 Elman-netサンプルプロジェクト # Neural Network Console クラウド版へのログインが必要 https://dl.sony.com/console/#/project?project_id=15 LSTMサンプルプロジェクト # Neural Network Console クラウド版へのログインが必要 https://dl.sony.com/console/#/project?project_id=19 Neural Network Console https://dl.sony.com/ja/ Neural Network Libraries https://nnabla.org/ja/ #Deep Learning #Neural Network #Neural Network Console #Neural Network Libraries #Sony #AI #深層学習 #ディープラーニング #ニュールネットワーク #ソニー #人工知能 #RNN #Recurrent Neural Networks #リカレントニューラルネットワーク #Elman net #LSTM #Long short-term memory #時系列データ #time-series data
2019年07月18日
00:00:00 - 00:11:34
これで完璧!Excelデータ分析・完全講義【応用編】

これで完璧!Excelデータ分析・完全講義【応用編】

エクセルでさらに自由に統計解析やデータアナリティクスができるようになりましょう。 質問・リクエスト等のお気軽なコメントや、Super Thanksによる応援を頂けますと大変励みになります! 【Excelファイルのダウンロードサイト】 https://analysis-navi.com/?p=4032 【入門編はこちら】 https://youtu.be/xz151IIp6us 【目次】 ■ 集計の集計ワザ 1:49 プラスアルファのグラフ ├ 1:56 バブルチャート └ 9:39 パレート図/ABC分析 13:53 データの結合(XLOOKUP) ■ 分析の応用ワザ 20:22 カイ二乗検定 38:15 プラスアルファの重回帰分析(ダミー変数、交互作用) 1:03:33 時系列分析 ├ 1:04:11 時系列データの集計 └ 1:08:34 時系列データの予測 1:17:10 ソルバー ├ 1:17:44 整数最適化 └ 1:31:56 組み合わせ最適化 【キーワード】 絶対参照 ダミー変数 交互作用 指数平滑法 整数計画問題 ビジネス統計スペシャリスト #エクセル #データ分析 #統計学 #データサイエンス
2022年03月13日
00:00:00 - 01:46:36
時系列データから様々な特徴量を作成してみよう!

時系列データから様々な特徴量を作成してみよう!

この動画では、時系列データを使った機械学習を実行する中でどのような特徴を作ることができるか観点ごとに説明してみようと思います。 動画で使用したコード:https://k-dm.work/ja/timeseries/shape/004-ts-extract-features/ ----------------------------- ★タイトル 00:00 タイトル 01:17 tsfreshで特徴を作成 02:33 時系列データから作成できる特徴 02:59 統計量 03:31 集計・自己相関 04:42 ●×の時刻・タイミング 05:22 変化率 06:34 周波数 06:59 形・類似度 07:45 形による特徴の具体例:Cup and handle 09:06 まとめ ----------------------------- ★参考文献 ・tsfresh — tsfresh 0.18.1.dev39+g611e04f documentation https://tsfresh.readthedocs.io/en/latest/ ・pandas.DataFrame.aggregate — pandas 1.5.0 documentation https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.aggregate.html ・https://qiita.com/studio_haneya/items/b1757a68cd286a579d37 ----------------------------- ★SNS twitter:https://twitter.com/intent/follow?screen_name=_K_DM ブログ: https://kdm.hatenablog.jp/ コード置き場: https://k-dm.work/ja/ ----------------------------- ★BGM Flower Field (by FLASH☆BEAT様) https://dova-s.jp/bgm/play13492.html ----------------------------- ★このチャンネルについて 週に一回ペースで機械学習・データサイエンスに関する情報を発信します!よろしければチャンネル登録お願いします。大変励みになります。 #機械学習 #データ分析 #Python #機械学習 #AI #データ分析 #データサイエンス #データサイエンティスト #Python #scikit-learn #Kaggle #データマイニング #G検定 #E検定 #人工知能 #わかりやすく #初学者
2022年10月15日
00:00:00 - 00:10:06
【時系列分析①】漸化式と線型代数その1【特性方程式の謎を解く!】 #VRアカデミア #023

【時系列分析①】漸化式と線型代数その1【特性方程式の謎を解く!】 #VRアカデミア #023

本動画中での "unirateral shift" は "unilateral shift" の誤りですm(__)m 動画内の誤り一覧 http://bit.ly/error_asp ===== 時系列分析シリーズの1本目です! この動画と次では、漸化式と線型代数について語ります。 この動画が理解できれば、大学1年次の線型代数はOKだと思います! ## 演習問題’s 演習1 (6:32) V が線形空間であることを示せ 演習2 (7:24) dimV=3 を示せ 演習3 (11:42) s:V→V を示せ (a ∈ V に対して sa ∈ V であることと、 s が線形写像であることを証明してください) 演習4 (18:50) A_s の固有多項式を求めよ 演習5 (23:16) g_2, g_3, g_4 ∈ V を示せ 演習6 (23:16) (g_2 g_3 g_4) が V の基底であることを示せ (一般論だと、 Vandermonde の行列式を計算できればOK) #AIciaSolidProject #VRアカデミア #Vtuber #時系列分析
2019年02月23日
00:00:00 - 00:27:42
実践Deep Learning:波形データの時系列予測

実践Deep Learning:波形データの時系列予測

Deep Learningを用いて波形の時系列予測に用いることのできる基本的なアーキテクチャをご紹介します。 前回の動画:Deep Learningによる波形データのシーケンスラベリングと信号処理 https://www.youtube.com/watch?v=_4r7uTIPG1s Deep Learningによる波形データの分類と回帰 https://www.youtube.com/watch?v=22Eq_0qADf4 実践Deep Learning:波形データの入出力 https://www.youtube.com/watch?v=EzRoEB6BOoc 実践Deep Learning:Deep Learningで行う予測 https://www.youtube.com/watch?v=cOcBeDRhG9M 実践Deep Learning:Deep Learningで行う予測 #2 https://www.youtube.com/watch?v=RXLsrbhlzr0 精度向上テクニック:様々なCNN #3 https://www.youtube.com/watch?v=05qlCP-xL9Y 精度向上テクニック:様々なCNN #4 https://www.youtube.com/watch?v=phIyhxTOA1I Deep Learning入門:Recurrent Neural Networksとは https://www.youtube.com/watch?v=yvqgQZIUAKg Deep Learning入門:数式なしで理解するLSTM(Long short-term memory) https://www.youtube.com/watch?v=unE_hofrYrk 再生リスト「実践Deep Learning」 https://www.youtube.com/playlist?list=PLg1wtJlhfh20zNXqPYhQXU6-m5SoN-4Eu 再生リスト「Deep Learning 精度向上テクニック」 https://www.youtube.com/playlist?list=PLg1wtJlhfh216rnmSv_oEDuchRjgUqxBi 再生リスト「Deep Learning入門」 https://www.youtube.com/playlist?list=PLg1wtJlhfh23pjdFv4p8kOBYyTRvzseZ3 Neural Network Console https://dl.sony.com/ja/ #Deep Learning #Neural Network #Neural Network Console #Neural Network Libraries #Sony #AI #深層学習 #ディープラーニング #ニュールネットワーク #ソニー #人工知能 #波形データ #waveform #音声データ #オーディオ信号 #audio data #sound data #再帰型ニューラルネットワーク #Recurrent neural networks #RNN #畳み込みニューラルネットワーク #Convolutional neural networks #CNN #予測 #prediction
2020年10月06日
00:00:00 - 00:11:22
【時系列分析④】VAR過程と因果について【Granger 因果検定】 #VRアカデミア #036

【時系列分析④】VAR過程と因果について【Granger 因果検定】 #VRアカデミア #036

時系列と因果の関係について見ていきます。 Granger Causality Test ( Granger 因果検定)がメインです。 参考文献: 【今日紹介したのはこれ】 経済・ファイナンスデータの計量時系列分析 (統計ライブラリー) : https://amzn.to/2xb0cnf 【おすすめ4冊】 現場ですぐ使える時系列データ分析 ~データサイエンティストのための基礎知識~ : https://amzn.to/2xeqCnW 経済・ファイナンスデータの計量時系列分析 (統計ライブラリー) : https://amzn.to/2xb0cnf 確率システム入門 (システム制御情報ライブラリー) : https://amzn.to/2xd9Y8d 確率微分方程式 | B.エクセンダール : https://amzn.to/2Fx1fSK ======== C95 出店しました! 現在、叶数理さんの BOOTH で頒布しております! https://next-nexus.booth.pm/ 豪華執筆者による合同誌と、私達のグッズがあります! ( Twitter したことある数学徒さんならわかると思います、、、!) ======== Twitter: https://twitter.com/AIcia_Solid/ Logo: TEICAさん https://twitter.com/T_E_I_C_A Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん https://twitter.com/W01fa #AIciaSolidProject #VRアカデミア #Vtuber #Granger Causality Test #数理統計 #グレンジャー因果検定
2019年10月03日
00:00:00 - 00:26:12
「同期学習を用いた時系列解析による予測モデリング」大阪大学 大学院基礎工学研究科 機能創成専攻 助教 清水 雅樹

「同期学習を用いた時系列解析による予測モデリング」大阪大学 大学院基礎工学研究科 機能創成専攻 助教 清水 雅樹

「大阪大学 新技術説明会」(2024年1月30日開催)にて発表。 https://shingi.jst.go.jp/list/list_2023/2023_osaka-u.html #科学と技術
2024年04月16日
00:00:00 - 00:24:05
【深層学習】GNMT - Google翻訳の中身を解説!(2016)【ディープラーニングの世界 vol. 26】#103 #VRアカデミア #DeepLearning

【深層学習】GNMT - Google翻訳の中身を解説!(2016)【ディープラーニングの世界 vol. 26】#103 #VRアカデミア #DeepLearning

☆お知らせ☆ AIcia Solid Project 公式HPが出来ました!!! https://sites.google.com/view/aicia-official/top HPでは私たちや動画コンテンツの紹介、板書データの公開などをしています。是非ご活用ください!! ▼テーマ Google翻訳の中身を解説します! これは2016年時点でのモデルなので、現在はもうちょっと進んだモデルが利用されています。 2021年5月時点では、一部 Transformer も利用されています。その話題にもちょっと触れています! ▼関連動画 Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP 自然言語処理シリーズ https://www.youtube.com/playlist?list=PLhDAH9aTfnxL4XdCRjUCC0_flR00A6tJR Attention の動画 → https://www.youtube.com/watch?v=bPdyuIebXWM&t=1s RNN の動画(ここから3本) → https://www.youtube.com/watch?v=NJdrYvYgaPM&list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP&index=8 LSTM の動画 → https://www.youtube.com/watch?v=oxygME2UBFc ▼目次 00:00 OP === 1. 時代背景 === 00:44 論文紹介と時代背景 02:10 当時の問題点 === 2. モデル === 04:33 モデルの全体像を掴もう 10:02 Encoder部分の仕組みと工夫 11:47 Decoder部分の仕組みと工夫 13:14 Attention部分の仕組みと工夫 19:01 Decoder部分の更なる工夫に迫る 19:30 BEAM search とは何か? 22:26 工夫①:length normalization 25:05 工夫②:coverage penalty 29:39 Decoder部分の工夫まとめ! === 3.いろんな工夫 === 31:06 やっぱりGoogleは凄かった。 31:28 ①高速化の工夫 34:30 ②レア単語への対応 37:18 ③学習の工夫 39:50 ④モデルの評価 41:22 本日の振り返りタイム 42:21 ED ▼参考文献 [1609.08144] Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation https://arxiv.org/abs/1609.08144 原論文! Production レベルの深層学習がどういうものかがひしひしを伝わってきます。 というか、ここまで細部書けるのは Google 内部にあるデータのおかげなんでしょうね。すごい [1508.07909] Neural Machine Translation of Rare Words with Subword Units https://arxiv.org/abs/1508.07909 サブワード分割についてはこちらの論文に詳しいです! Google AI Blog: Recent Advances in Google Translate https://ai.googleblog.com/2020/06/recent-advances-in-google-translate.html 最近(2021年5月時点)での update はこちら! 【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita https://qiita.com/LeftLetter/items/14b8f10b0ee98aa181b7 いろいろこれを参考にして動画を作っています ▼原論文との記号の対応 説明の都合上、LSTM cell の入出力で、現論文とは結構記号を変えています。(そして変え方を1箇所ミスしました) ここに対応表を載せておきます。 [原論文] Encoder の i 層目の LSTM セルの t 番目の出力の計算: c^i_t, m^i_t = LSTM_i(c^i_{t-1}, m^i_{t-1}, x^{i-1}_t; W^i) c: context vector m: output vector x: input vector W: parameter [動画] Decoder の j 層目の LSTM セルの i 番目の出力の計算: m^{(j)}_i, y^{(j)}_i = LSTM(m^{(j)}_{i-1}, y^{(j)}_{i-1}, y^{(j-1)}_i, a_i) m: context vector (現論文の c に対応(ここが分かりづらい!)) y: output vector a: attention vector [補足] ・現論文内の数式は Encoder で、動画内の数式は Decoder です。 →そのため、現論文には書いていない attention vector が動画内にはあります。 ・動画ではパラメーターは省略しました ・現論文の Attention の入力に用いられている記号が y だったので、それに合わせるため、動画内の output vector の表記を y に変更しました ・その際、現論文の c を半ば誤って動画では m と表記してしまいました(ここが分かりづらい!) [LSTM動画] ( https://www.youtube.com/watch?v=oxygME2UBFc ) y^{(t)}, h^{(t)}, c^{(t)} = LSTM(x^{(t-1)}, h^{(t-1)}) y: output vector h: hidden vector c: context vector x: input vector ▼終わりに ご視聴ありがとうございました! 面白かったら高評価、チャンネル登録お願いします。 動画の質問、感想などは、コメント欄やTwitterにどうぞ! お仕事、コラボのご依頼は、TwitterのDMからお願い致します。 動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ ) 動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ ) ======= Logo: TEICAさん ( https://twitter.com/T_E_I_C_A ) Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん ( https://twitter.com/W01fa )
2021年06月04日
00:00:00 - 00:42:59
【深層学習】word2vec の数理 - なぜ単語の計算が可能なのか【ディープラーニングの世界 vol. 22】#090 #VRアカデミア #DeepLearning

【深層学習】word2vec の数理 - なぜ単語の計算が可能なのか【ディープラーニングの世界 vol. 22】#090 #VRアカデミア #DeepLearning

▼テーマ word2vec では、「王」 - 「男」 + 「女」 = 「女王」のような単語の計算ができます。 これがなぜ可能なのか。ガチで数理的に解説します。 ▼関連プレイリスト Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP 自然言語処理シリーズ https://www.youtube.com/playlist?list=PLhDAH9aTfnxL4XdCRjUCC0_flR00A6tJR ▼参考文献 Mikolov, Tomas, et al. "Efficient estimation of word representations in vector space." arXiv preprint arXiv:1301.3781 (2013). https://arxiv.org/abs/1301.3781 現論文はこちら。ここには数学的原理は書いてありませんが、現論文なので紹介しておきます。 【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita https://qiita.com/LeftLetter/items/14b8f10b0ee98aa181b7 シリーズ構成で大変参考にしております。色々まとまってて good です! ▼終わりに ご視聴ありがとうございました! 面白かったら高評価、チャンネル登録お願いします。 動画の質問、感想などは、コメント欄やTwitterにどうぞ! お仕事、コラボのご依頼は、TwitterのDMからお願い致します。 動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ ) 動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ ) ======= Logo: TEICAさん ( https://twitter.com/T_E_I_C_A ) Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん ( https://twitter.com/W01fa ) #機械学習 #深層学習 #word2vec
2021年02月05日
00:00:00 - 00:20:37
ディープラーニングで時系列データの未来予測をしてみよう〜RNN(LSTM)〜【Python時系列分析#4】

ディープラーニングで時系列データの未来予測をしてみよう〜RNN(LSTM)〜【Python時系列分析#4】

今回は前回のモデリングとは違い、機械学習を使った方法で時系列の未来予想をしてみます。 この動画ではディープラーニングのRNN(再帰型ニューラルネットワーク)の一種である「LSTM」と呼ばれる手法を用いています。 【参考にさせて頂いたWeb Page】 https://data-viz-lab.com/multiple-regression-analysis https://toeming.hatenablog.com/entry/2020/06/02/231233 https://axa.biopapyrus.jp/deep-learning/rnn/ #データサイエンス
2021年09月19日
00:00:00 - 00:44:51
Excelで始める「統計的因果推論」超入門!〜正しく効果測定しよう〜

Excelで始める「統計的因果推論」超入門!〜正しく効果測定しよう〜

単純な相関分析や回帰分析では、データの背後に潜む真の「原因と結果」の関係を見極めることは難しいことが多いです。統計的因果推論はデータから因果関係を明らかにするための強力なツールです。これによりビジネスの意思決定や研究活動など、さまざまな分野での課題解決に役立てましょう! Super Thanksによる応援や、お気軽なコメントを頂けますと大変励みになります! 【Excelファイルのダウンロードサイト】 https://analysis-navi.com/?p=4135 【目次】 0:16 統計的因果推論とは? 9:17 仮説検定 14:41 回帰分析 23:29 RDD(回帰不連続デザイン) 29:09 DID(差の差法/差分の差分法) 41:37 ITSA(分割時系列デザイン) 【キーワード】 t検定 F検定 重回帰分析 ChatGPT 平行トレンド仮定 #エクセル #データ分析 #統計学 #データサイエンス
2023年09月16日
00:00:00 - 00:51:30
【深層学習】GPT-2 - 大規模言語モデルの可能性を見せ、社会もざわつかせたモデルの仕組み【ディープラーニングの世界vol.33】#113 #VRアカデミア #DeepLearning

【深層学習】GPT-2 - 大規模言語モデルの可能性を見せ、社会もざわつかせたモデルの仕組み【ディープラーニングの世界vol.33】#113 #VRアカデミア #DeepLearning

超自然な文章を生成できることが話題になり、一時は公開が見送られていた言語モデルである GPT-2 の紹介です。 社会的なセンセーショナルさとは距離をおいて、どういうモデルで、どういうタスクを、どうやって解いたのか、何がすごいのかをお届けします! ▼関連動画 Transformer の動画はこちら! https://www.youtube.com/watch?v=50XvMaWhiTY 忙しい人向け → https://www.youtube.com/watch?v=FFoLqib6u-0 GPT → https://www.youtube.com/watch?v=wDXPXgn5hX4 Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP 自然言語処理シリーズ https://www.youtube.com/playlist?list=PLhDAH9aTfnxL4XdCRjUCC0_flR00A6tJR ▼参考文献 Radford, Alec, et al. "Language models are unsupervised multitask learners." OpenAI blog 1.8 (2019): 9. http://www.persagen.com/files/misc/radford2019language.pdf 原論文! 世間では「巨大言語モデルを巨大データで学習して AI すげー!」って騒がれましたが、裏には考え抜かれた緻密な設計と努力があります。 AI を作る側の私達としては、一度読んでおくと、華々しい成果の裏に何があるのかが知れていいんじゃないかなーなんて思います。 He, Kaiming, et al. "Identity mappings in deep residual networks." European conference on computer vision. Springer, Cham, 2016. https://link.springer.com/chapter/10.1007/978-3-319-46493-0_38 Residual Connection は勾配消失対策だけじゃなくて、恒等写像学習のアイテムでもあるのです。 その哲学で書かれている論文。私は好きです。 その哲学を解説した ResNet の動画はこちら → https://www.youtube.com/watch?v=WslQrSO94qE Reddy, Siva, Danqi Chen, and Christopher D. Manning. "Coqa: A conversational question answering challenge." Transactions of the Association for Computational Linguistics 7 (2019): 249-266. https://direct.mit.edu/tacl/article/doi/10.1162/tacl_a_00266/43511/CoQA-A-Conversational-Question-Answering-Challenge タスクの1つ、CoQAのデータセットの論文です。TOEIC的な問題を集めているのですが、これが深層学習モデルに解けるのはすごい。 パラパラ眺めるだけでもイメージついていいと思います! 【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita https://qiita.com/LeftLetter/items/14b8f10b0ee98aa181b7 いろいろこれを参考にして動画を作っています ▼終わりに ご視聴ありがとうございました! 面白かったら高評価、チャンネル登録お願いします。 動画の質問、感想などは、コメント欄やTwitterにどうぞ! お仕事、コラボのご依頼は、公式 WebPage や TwitterのDMからお願い致します。 AIcia Solid Project - Official Website - https://sites.google.com/view/aicia-official/top 動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ ) 動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ ) ======= Logo: TEICAさん ( https://twitter.com/T_E_I_C_A ) Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん ( https://twitter.com/W01fa )
2021年08月27日
00:00:00 - 00:22:10
【逆行列①攻略!】逆行列は縦ベクトルを1に戻すんです【行列④逆行列の基本公式】 #133 #VRアカデミア #線型代数入門

【逆行列①攻略!】逆行列は縦ベクトルを1に戻すんです【行列④逆行列の基本公式】 #133 #VRアカデミア #線型代数入門

行列をわかりやすく理解するシリーズを始めます。 A^{-1} a_i = e_i は 1/2 x 2 = 1 レベルの基本公式です。 この動画を通してバッチリ押さえちゃいましょう! ▼関連資料 線型代数基礎シリーズ - YouTube プレイリスト https://www.youtube.com/playlist?list=PLhDAH9aTfnxKfmufxF59vaZECZJD5j6rd 線型代数つまみぐい - YouTube プレイリスト (実践を通して線型代数を色々見てますー) https://www.youtube.com/playlist?list=PLhDAH9aTfnxKW4fdRvBu3P3cMPpxSXEu1 ▼関連動画 【時系列分析②】漸化式と線型代数その2 ~固有値、固有ベクトル、対角化を攻略!~【めざせ線型代数マスター!】 #VRアカデミア #024 - YouTube https://www.youtube.com/watch?v=P_204LIcsFk ▼目次 そのうち! ▼参考文献 そのうち書きます! おすすめじゃないラスボス 線形代数の世界―抽象数学の入り口 (大学数学の入門) https://amzn.to/3MGaIIq ▼終わりに ご視聴ありがとうございました! 面白かったら高評価、チャンネル登録お願いします。 動画の質問、感想などは、コメント欄やTwitterにどうぞ! お仕事、コラボのご依頼は、公式 WebPage や TwitterのDMからお願い致します。 AIcia Solid Project - Official Website - https://sites.google.com/view/aicia-official/top 動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ ) 動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ ) ======= Logo: ChikakoHorioさん ( https://twitter.com/ChikakoHorio ) Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん ( https://twitter.com/W01fa )
2022年05月13日
00:00:00 - 00:16:22
【深層学習】BERT - 実務家必修。実務で超応用されまくっている自然言語処理モデル【ディープラーニングの世界vol.32】#110 #VRアカデミア #DeepLearning

【深層学習】BERT - 実務家必修。実務で超応用されまくっている自然言語処理モデル【ディープラーニングの世界vol.32】#110 #VRアカデミア #DeepLearning

自然言語処理の超最強モデル、BERT くんです。 実務で NLP で困ったら、とりあえず BERT 使っておけばいいと思います。 実世界で一番利用されているモデルじゃないでしょうか。(マスターの会社でも2020年前半頃から実運用しています) ======== 5:55頃に誤りがあります! V_between は 2N^2 ではなく単に N^2 で割ってください! 動画内の誤り一覧 http://bit.ly/error_asp ======== ☆お知らせ☆ AIcia Solid Project 公式HPが出来ました!!! https://sites.google.com/view/aicia-official/top HPでは私たちや動画コンテンツの紹介、板書データの公開などをしています。是非ご活用ください!! ▼関連動画 Transformer の動画はこちら! https://www.youtube.com/watch?v=50XvMaWhiTY 忙しい人向け → https://www.youtube.com/watch?v=FFoLqib6u-0 Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP 自然言語処理シリーズ https://www.youtube.com/playlist?list=PLhDAH9aTfnxL4XdCRjUCC0_flR00A6tJR ▼目次 公開後追加予定! ▼参考文献 Devlin, Jacob, et al. "Bert: Pre-training of deep bidirectional transformers for language understanding." arXiv preprint arXiv:1810.04805 (2018). https://arxiv.org/abs/1810.04805 原論文! 2年前、Transformer論文の次にコレを読んで、「Transformer と何が違うの、、、?」と混乱した思い出があります。 時代背景やこの論文の主張をわかった上で読んだらとても読みやすいと思います!(^o^) BERTによる自然言語処理入門: Transformersを使った実践プログラミング https://amzn.to/3iaFdsX 使いたいときはこれ読むとよいと思います!! 【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita https://qiita.com/LeftLetter/items/14b8f10b0ee98aa181b7 いろいろこれを参考にして動画を作っています ▼終わりに ご視聴ありがとうございました! 面白かったら高評価、チャンネル登録お願いします。 動画の質問、感想などは、コメント欄やTwitterにどうぞ! お仕事、コラボのご依頼は、TwitterのDMからお願い致します。 動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ ) 動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ ) ======= Logo: TEICAさん ( https://twitter.com/T_E_I_C_A ) Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん ( https://twitter.com/W01fa )
2021年07月30日
00:00:00 - 00:30:56
【試験対策!】ε-δ論法を使えるようになろう!【使ってみるのが大事】 #VRアカデミア #034

【試験対策!】ε-δ論法を使えるようになろう!【使ってみるのが大事】 #VRアカデミア #034

試験も近いということで、 ε - δ 論法についての解説動画を出してみました! ε - δ 論法の使い方の動画になっております。 ε - δ 論法のおすすめ動画: 【大学数学】ε-δ論法(関数の連続性)【解析学】https://www.youtube.com/watch?v=t3JPms8Y1l4 線型代数もあるよ!: 【時系列分析①】漸化式と線型代数その1【特性方程式の謎を解く!】 https://www.youtube.com/watch?v=d0EGcXZlpJ4&list=PLhDAH9aTfnxKW4fdRvBu3P3cMPpxSXEu1 【時系列分析②】漸化式と線型代数その2 ~固有値、固有ベクトル、対角化を攻略!~【めざせ線型代数マスター!】 https://www.youtube.com/watch?v=P_204LIcsFk&list=PLhDAH9aTfnxKW4fdRvBu3P3cMPpxSXEu1&index=2 ======== C95 出店しました! 現在、叶数理さんの BOOTH で頒布しております! https://next-nexus.booth.pm/ 豪華執筆者による合同誌と、私達のグッズがあります! ( Twitter したことある数学徒さんならわかると思います、、、!) ======== Twitter: https://twitter.com/AIcia_Solid/ Logo: TEICAさん https://twitter.com/T_E_I_C_A Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん https://twitter.com/W01fa #AIciaSolidProject #VRアカデミア #Vtuber #ε-δ論法 #試験対策
2019年07月15日
00:00:00 - 00:20:11
【深層学習】fasttext - 単語の内部構造を利用した版 word2vec 【ディープラーニングの世界 vol. 25】#097 #VRアカデミア #DeepLearning

【深層学習】fasttext - 単語の内部構造を利用した版 word2vec 【ディープラーニングの世界 vol. 25】#097 #VRアカデミア #DeepLearning

▼テーマ subword を利用することで、単語の内部構造を利用して単語埋め込みを作ります。 ほぼ word2vec なのに性能良くなる & 言語によって改善幅が違うのがおもしろポイント! ▼関連プレイリスト Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP 自然言語処理シリーズ https://www.youtube.com/playlist?list=PLhDAH9aTfnxL4XdCRjUCC0_flR00A6tJR ▼目次 (後で追加します。暫くお待ちください) ▼参考文献 Bojanowski, Piotr, et al. "Enriching word vectors with subword information." Transactions of the Association for Computational Linguistics 5 (2017): 135-146. https://direct.mit.edu/tacl/article/doi/10.1162/tacl_a_00051/43387/Enriching-Word-Vectors-with-Subword-Information 現論文です。この中の pdf というボタンを押すと読めます。 言語別比較はとっても面白いので、ぜひ見てみてください! 【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita https://qiita.com/LeftLetter/items/14b8f10b0ee98aa181b7 いろいろこれを参考にして動画を作っています ▼終わりに ご視聴ありがとうございました! 面白かったら高評価、チャンネル登録お願いします。 動画の質問、感想などは、コメント欄やTwitterにどうぞ! お仕事、コラボのご依頼は、TwitterのDMからお願い致します。 動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ ) 動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ ) ======= Logo: TEICAさん ( https://twitter.com/T_E_I_C_A ) Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん ( https://twitter.com/W01fa )
2021年04月09日
00:00:00 - 00:20:25
【対角化①】対角化は変換の表現技法なのです【行列⑥対角化】 #135 #VRアカデミア #線型代数入門

【対角化①】対角化は変換の表現技法なのです【行列⑥対角化】 #135 #VRアカデミア #線型代数入門

行列をわかりやすく理解するシリーズを始めます。 対角化は変換の表現技法なんです。ちょっと哲学にも踏み込んで、対角化と和解の道を歩みます。 オトナの言葉でいうと、線形写像に相性のいい基底を発見し、行列表示を簡単にする感じです。 ▼関連資料 線型代数基礎シリーズ - YouTube プレイリスト https://www.youtube.com/playlist?list=PLhDAH9aTfnxKfmufxF59vaZECZJD5j6rd 線型代数つまみぐい - YouTube プレイリスト (実践を通して線型代数を色々見てますー) https://www.youtube.com/playlist?list=PLhDAH9aTfnxKW4fdRvBu3P3cMPpxSXEu1 ▼関連動画 【時系列分析②】漸化式と線型代数その2 ~固有値、固有ベクトル、対角化を攻略!~【めざせ線型代数マスター!】 #VRアカデミア #024 - YouTube https://www.youtube.com/watch?v=P_204LIcsFk ▼目次 そのうち! ▼参考文献 そのうち書きます! おすすめじゃないラスボス 線形代数の世界―抽象数学の入り口 (大学数学の入門) https://amzn.to/3MGaIIq ▼終わりに ご視聴ありがとうございました! 面白かったら高評価、チャンネル登録お願いします。 動画の質問、感想などは、コメント欄やTwitterにどうぞ! お仕事、コラボのご依頼は、公式 WebPage や TwitterのDMからお願い致します。 AIcia Solid Project - Official Website - https://sites.google.com/view/aicia-official/top 動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ ) 動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ ) ======= Logo: ChikakoHorioさん ( https://twitter.com/ChikakoHorio ) Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん ( https://twitter.com/W01fa )
2022年06月10日
00:00:00 - 00:26:02
複数の時系列データに対して変化点を検出しよう! #python #データ分析

複数の時系列データに対して変化点を検出しよう! #python #データ分析

ruptureというライブラリを使用してpythonで時系列データの変化点を検出してみようと思います! ★動画で使用したコード:https://k-dm.work/ja/timeseries/unsupervised/ruptures/ ----------------------------- 0:00 タイトル 0:47 実際に動かしてみる 6:49 各アルゴリズムの違い 9:12 調整すべきパラメータ 10:20 株価の変化点を見つけてみる ----------------------------- ★SNS twitter:https://twitter.com/intent/follow?screen_name=_K_DM コード置き場: https://k-dm.work/ja/ ----------------------------- ★BGM KYATTOWORKS様 https://kyattoworks.com/partytime/ ----------------------------- ★このチャンネルについて 週に一回ペースで機械学習・データサイエンスに関する情報を発信します!よろしければチャンネル登録お願いします。大変励みになります。 #機械学習 #データ分析 #Python #機械学習 #AI #データ分析 #データサイエンス #データサイエンティスト #Python #scikit-learn #Kaggle #データマイニング #G検定 #E検定 #人工知能 #わかりやすく #初学者
2024年02月12日
00:00:00 - 00:12:03
エクセルで「時系列分析」できるようになる動画〜未来予測など〜

エクセルで「時系列分析」できるようになる動画〜未来予測など〜

時間の情報を含んだデータ分析手法である時系列分析(時系列解析)をExcelでやってみます。 グラフ化、年月日ごとの集計、forecast関数による未来予測、などなど・・・ #データサイエンス
2021年10月10日
00:00:00 - 00:20:43
【深層学習】GPT-3 ①-1 モデルと Sparse Transformer について【ディープラーニングの世界vol.39】#124 #VRアカデミア #DeepLearning

【深層学習】GPT-3 ①-1 モデルと Sparse Transformer について【ディープラーニングの世界vol.39】#124 #VRアカデミア #DeepLearning

GPT-3 全部解説します! ①概要編 ← 今日はここ!(の前半) モデルについて! ②限界 & 研究テーマ編 ③社会的影響編 次回:Zero-Shot, One-Shot, Few-Shot の原理、背景と性能です! ▼参考文献 Brown, Tom B., et al. "Language models are few-shot learners." arXiv preprint arXiv:2005.14165 (2020). https://arxiv.org/abs/2005.14165 原論文! 濃厚! 超長いです。 読むのは、プロ以外、、そこまで、、、おすすめしません、、、、、、(笑) 【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita https://qiita.com/LeftLetter/items/14b8f10b0ee98aa181b7 いろいろこれを参考にして動画を作っています ▼目次 00:00 OP 01:27 1.GPT-3とは 05:34 2.モデルとデータ 11:59 Sparse Transformer とは何か? 16:25 GPT-3のモデル全体像 ▼終わりに ご視聴ありがとうございました! 面白かったら高評価、チャンネル登録お願いします。 動画の質問、感想などは、コメント欄やTwitterにどうぞ! お仕事、コラボのご依頼は、公式 WebPage や TwitterのDMからお願い致します。 AIcia Solid Project - Official Website - https://sites.google.com/view/aicia-official/top 動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ ) 動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ ) ======= Logo: TEICAさん ( https://twitter.com/T_E_I_C_A ) Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん ( https://twitter.com/W01fa )
2021年12月24日
00:00:00 - 00:17:29
【深層学習】GPT-3 ② 限界と今後の研究テーマ【ディープラーニングの世界vol.40】#126 #VRアカデミア #DeepLearning

【深層学習】GPT-3 ② 限界と今後の研究テーマ【ディープラーニングの世界vol.40】#126 #VRアカデミア #DeepLearning

GPT-3 の限界と、その先の研究テーマについて紹介します。 GPT-3 は簡単な計算なら出来ちゃってすごい! けど、まだできないことも多いので、そこを改善したら論文になるかも!(^o^) ①概要編 ②限界 & 研究テーマ編 ← 今日はここ! ③社会的影響編 1本目:https://www.youtube.com/watch?v=CBZWzQVcXE4&list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP&index=40 ▼参考文献 Brown, Tom B., et al. "Language models are few-shot learners." arXiv preprint arXiv:2005.14165 (2020). https://arxiv.org/abs/2005.14165 原論文! 濃厚! 超長いです。 読むのは、プロ以外、、そこまで、、、おすすめしません、、、、、、(笑) 【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita https://qiita.com/LeftLetter/items/14b8f10b0ee98aa181b7 いろいろこれを参考にして動画を作っています ▼目次 00:00 OP 00:20 3. Few-Shot, One-Shot, Zero-Shot 06:25 研究の背景にある思想 09:39 4. GPT-3の性能 ▼終わりに ご視聴ありがとうございました! 面白かったら高評価、チャンネル登録お願いします。 動画の質問、感想などは、コメント欄やTwitterにどうぞ! お仕事、コラボのご依頼は、公式 WebPage や TwitterのDMからお願い致します。 AIcia Solid Project - Official Website - https://sites.google.com/view/aicia-official/top 動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ ) 動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ ) ======= Logo: TEICAさん ( https://twitter.com/T_E_I_C_A ) Model: http://3d.nicovideo.jp/works/td44519 Model by: W01fa さん ( https://twitter.com/W01fa )
2022年01月21日
00:00:00 - 00:17:05