スーザンハニーを参照してください。(00:32:03 - 00:32:06) - Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018)

スーザンハニーを参照してください。(00:32:03 - 00:32:06)
Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018)

For more information about Stanford’s Artificial Intelligence professional and graduate programs, visit: https://stanford.io/2Ze53pq

Listen to the first lecture in Andrew Ng's machine learning course. This course provides a broad introduction to machine learning and statistical pattern recogniti...
For more information about Stanford’s Artificial Intelligence professional and graduate programs, visit: https://stanford.io/2Ze53pq

Listen to the first lecture in Andrew Ng's machine learning course. This course provides a broad introduction to machine learning and statistical pattern recognition. Learn about both supervised and unsupervised learning as well as learning theory, reinforcement learning and control. Explore recent applications of machine learning and design and develop algorithms for machines.

Andrew Ng is an Adjunct Professor of Computer Science at Stanford University. View more about Andrew on his website: https://www.andrewng.org/

To follow along with the course schedule and syllabus, visit:
http://cs229.stanford.edu/syllabus-autumn2018.html

0:00 Introduction
05:21 Teaching team introductions
06:42 Goals for the course and the state of machine learning across research and industry
10:09 Prerequisites for the course
11:53 Homework, and a note about the Stanford honor code
16:57 Overview of the class project
25:57 Questions

#AndrewNg #machinelearning

#Andrew Ng #Computer Science #Stanford #Machine Learning #Graduate Course #Artificial Intelligence #AI #Stanford Online #ML
Teaching team introductions - Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018)

Teaching team introductions

Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018)
2020年04月18日 
00:05:21 - 00:06:42
Goals for the course and the state of machine learning across research and industry - Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018)

Goals for the course and the state of machine learning across research and industry

Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018)
2020年04月18日 
00:06:42 - 00:10:09
Prerequisites for the course - Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018)

Prerequisites for the course

Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018)
2020年04月18日 
00:10:09 - 00:11:53
Homework, and a note about the Stanford honor code - Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018)

Homework, and a note about the Stanford honor code

Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018)
2020年04月18日 
00:11:53 - 00:16:57
Overview of the class project - Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018)

Overview of the class project

Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018)
2020年04月18日 
00:16:57 - 00:25:57
Questions - Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018)

Questions

Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018)
2020年04月18日 
00:25:57 - 01:15:20
00:00:03 - 00:00:07: 69 機械学習へようこそ 00:00:07 - 00:00:08: このクローゼットまたは 00:00:08 - 00:00:10: スタンフォード大学は長い間、これが 00:00:10 - 00:00:13: 私が毎年教えることを最も楽しみ 00:00:13 - 00:00:15: にしていること 00:00:15 - 00:00:17: を知っている人もいます。これは私たちが支援してきた場所だからです。 00:00:19 - 00:00:21: 機械学習ゴルフの専門家は、 00:00:21 - 00:00:23: 多くの製品やサービス、スタートアップを構築してきました。 00:00:23 - 00:00:25: 皆さんの多く 00:00:25 - 00:00:30: が今日使用していること 00:00:30 - 00:00:32: を願っています。今日私がやりたいことは 00:00:32 - 00:00:36: 、ロジスティクスについて話し、その後、 00:00:36 - 00:00:37: いくつかの時間を費やすことでした。 機械学習 00:00:37 - 00:00:39: についてのイントロトークの冒頭を少し紹介することを 00:00:46 - 00:00:49: 知っています.229について 00:00:49 - 00:00:52: は、ニュースで機械学習についてのニュースでAIについて読んでいることを知ってい 00:10:10 - 00:10:12: ます. 00:00:59 - 00:01:01: 約 100 年前の電力の台頭により、 00:01:01 - 00:01:03: すべての主要産業が変革されたと思います 00:01:03 - 00:01:06: AI はすでに機械学習と呼ばれています 00:01:06 - 00:01:07: が、他の世界では AI 機械学習と呼ばれているよう 00:01:07 - 00:01:11: で、AI とディープ 00:01:11 - 00:01:13: ラーニングは今後 世界を変えて、 00:01:13 - 00:01:16: 3 2 3 9 があなたに必要なツールを提供してくれることを願って 00:01:16 - 00:01:18: います。そうすれば、あなたが 00:01:18 - 00:01:20: 将来の業界の多くの巨人に 00:01:20 - 00:01:22: なり、金の 1 つになることができます。 00:01:22 - 00:01:24: 大規模なテクノロジー企業が成功することを願って 00:01:24 - 00:01:26: います。 彼らが行う驚くべきこと、 00:01:26 - 00:01:29: またはあなた自身のスタートアップまたは他の業界への進出の両方 00:01:31 - 00:01:32: ヘルスケアを変革するか、交通 00:01:32 - 00:01:33: 機関を輸送するか、自動運転 00:01:33 - 00:01:36: 車を設置して、これらすべてのことを行い 00:01:36 - 00:01:39: ます。このクラスの後、あなたはできるようになると思います 00:01:39 - 00:01:44: 大多数の学生 00:01:44 - 00:01:46: が AI スキルの需要を 00:01:48 - 00:01:50: 利用していることを知っています 機械学習スキルの需要が非常に大きいことは皆さんご存知だと 00:01:50 - 00:01:52: 思いますが、それは機械学習が 00:01:52 - 00:01:54: ここ数年で非常に急速に進歩したためだと思い 00:01:58 - 00:02:01: 産業界と学界の両方で学習アルゴリズムを正しく適用する 00:02:03 - 00:02:05: 今日、英語学科の教授は歴史をよりよく理解 00:02:05 - 00:02:07: するために学習アルゴリズム 00:02:09 - 00:02:11: を適用しようとしています 機械学習を適用しようとしている弁護士がいると思います 00:02:11 - 00:02:13: インタープロセスの合法的な 00:02:13 - 00:02:15: 人間とキャンパス外のすべての 00:02:15 - 00:02:17: 企業 テクノロジー企業だけでなく、テクノロジー企業とは見なされない他の多くの企業の両方 00:02:20 - 00:02:21: 私からの派閥企業のすべて ヘルスケア 00:02:21 - 00:02:24: 企業 わずか6社 00:02:24 - 00:02:27: も機械学習を適用しようとしています 00:02:31 - 00:02:35: 事実に基づいて見ると、今日 00:02:35 - 00:02:37: 非常に価値のある機械学習プロジェクトを行っている人の数 00:02:37 - 00:02:39: は6 00:02:39 - 00:02:40: か月前よりもはるかに多く、6か月前 00:02:40 - 00:02:42: は12か月前よりもはるかに多く 00:02:42 - 00:02:44: 、その量は 機械学習 00:02:44 - 00:02:46: で行われている刺激的で有意義な作業の量 00:02:46 - 00:02:49: は非常に強力に 00:02:49 - 00:02:54: 増加しており、私 00:02:54 - 00:02:57: たちが持っているデータの量と私たちが持っている新しい機械学習ツールの量を知って 00:02:59 - 00:03:02: いることを考えると、それには長い時間がかかると思います 00:03:02 - 00:03:04: 機会がなくなる 00:03:04 - 00:03:06: 前に、社会全体 00:03:06 - 00:03:08: が機械学習のスキルセットを備えた十分な数の人々を獲得 00:03:08 - 00:03:12: する前に、おそらく 00:03:12 - 00:03:14: 20年前には知らなかった 00:03:14 - 00:03:16: このインターネットのことに取り組み始めるには良い時期です 00:03:18 - 00:03:20: .20 年前のようにインターネットで働き始めた多くの 00:03:20 - 00:03:23: 人々と素晴らしいキャリア.今日は 00:03:23 - 00:03:25: 機械学習に飛び込む素晴らしい時期で 00:03:25 - 00:03:28: あり、 00:03:28 - 00:03:31: あなたが独自のことをする数と機会があると思います. 00:03:31 - 00:03:33: 他の誰もが 00:03:33 - 00:03:34: 正しく行っていないこと 00:03:34 - 00:03:37: を物流会社に行って 00:03:37 - 00:03:39: 機械学習を適用するエキサイティングな方法を見つけるためにお金を払って 00:03:39 - 00:03:42: いる可能性が非常に高いので 00:03:42 - 00:03:44: 、物流会社は他の誰 00:03:44 - 00:03:46: もこれに取り組んでいない可能性がある 00:03:46 - 00:03:48: 彼らはおそらくできることを知っています 彼らは優秀 00:03:48 - 00:03:50: なスタンフォードの学生を卒業生として雇うことができないかもしれ 00:03:50 - 00:03:52: ません cs2 29 正しい女の子 彼らは 00:03:52 - 00:03:54: ちょうど周りの多くの CSUN 卒業生にいる 00:03:54 - 00:04:00: ので、私が今日やりたいことは 00:04:00 - 00:04:03: 、ロジスティクスについて話す簡単な紹介をすることです 00:04:03 - 00:04:06: それから、その日の後半に 00:04:06 - 00:04:08: 概要を説明し、 00:34:05 - 00:34:15: 機械学習について 00:04:09 - 00:04:13: もう少しお話しします。 00:04:15 - 00:04:18: これは、300人の学生が 00:04:19 - 00:04:23: 800人ほどではないと思います 00:04:23 - 00:04:25: が、このクラスで書い 00:04:25 - 00:04:27: たものです。外に人がいて、すべて 00:04:27 - 00:04:30: のクラスがSCPDで録画放送され 00:04:30 - 00:04:32: ている場合、通常、ビデオは 00:04:32 - 00:04:35: 同じ日に非常に利用可能になるため、 00:04:35 - 00:04:37: 彼らが部屋に入れない人たち 00:04:37 - 00:04:39: 申し訳ありませんが、 00:04:39 - 00:04:42: 私でさえ部屋に入るのに苦労した年があることを知っ 00:04:42 - 00:04:46: ていますが、私はあなたが 00:04:46 - 00:04:48: あなたを洗うことができることを願っています。 00:04:52 - 00:04:56: わかりません 少し複雑です 00:04:56 - 00:04:59: ええ ありがとうございます 大丈夫だと思います 00:05:10 - 00:05:12: 私は自分自身を紹介する必要がありました。 00:05:12 - 00:05:16: 私の名前はアンドリューです。 00:05:16 - 00:05:18: 残りの 00:05:18 - 00:05:22: 教育チームの一部を紹介したいと思います。また 00:05:22 - 00:05:25: 、彼女は長年この役割を果たしてきたクラスコーディネーターで 00:05:27 - 00:05:30: あり、電車を時間通りに走らせ 00:05:30 - 00:05:30: 、 cのすべて 私たち 00:05:30 - 00:05:35: のことは、彼女がそうなるはずのときに起こり 00:05:35 - 00:05:39: 、その後 00:05:39 - 00:05:44: 、私のサンタが共同責任者になり、どの喉が原因でしょうか TS 00:05:44 - 00:05:46: それぞれ私と一緒に働いている博士課程の学生 00:05:53 - 00:05:54: であり、機械学習における多くの技術的経験 00:05:54 - 00:05:56: と実践的な知識をもたらします -これらのことを機能させる方法 00:05:56 - 00:05:59: と、 00:05:59 - 00:06:01: 私たちが持っている大規模なクラスでは、大規模なTA 00:06:03 - 00:06:05: があります.今日ここですべてのTASを紹介することはできませんが、学校全体で彼らの多くに会います 00:06:05 - 00:06:07: が、TASの専門知識は多岐に 00:06:07 - 00:06:09: わたります. 00:06:09 - 00:06:10: 変換や言語処理 00:06:10 - 00:06:14: 技術からロボット工学に至るまで、 00:06:14 - 00:06:16: この四半期を通してクラスの 00:06:16 - 00:06:18: プロジェクトに取り組む際に、機械だけでなく深い専門知識を持っている TAS から多くの支援、アドバイス、指導を受けられることを願っています。 00:06:25 - 00:06:27: しかし、多くの場合、機械学習の特定の垂直 00:06:27 - 00:06:30: アプリケーション領域にある 00:06:31 - 00:06:33: ため、TA とのマッチングを 00:06:33 - 00:06:36: 試みている 00:06:36 - 00:06:41: プロジェクトによって異なります ええと、あなた 00:06:41 - 00:06:43: はこのクラスに参加することを知っています. 00:06:43 - 00:06:46: 次の10週間後にあなた 00:06:46 - 00:06:50: が機械学習の専門家に 00:06:55 - 00:06:58: なることを願っています. 00:06:58 - 00:07:00: 非常に意味のある機械学習 00:07:00 - 00:07:02: アプリケーションをアカデミックな 00:07:02 - 00:07:05: 環境で構築し、できれば 00:07:07 - 00:07:09: 工学、電気工学、 00:07:09 - 00:07:14: 英語、法律、教育、およびスタンフォード大学 00:07:15 - 00:07:18: の芝生だけでなく、キャンパス内で行われるこの素晴らしい作業すべての問題に適用できます。 00:07:18 - 00:07:20: ビルへ あなたが見つけた仕事に応募して 00:07:20 - 00:07:23: ください 機械学習について私が非常にエキサイティングだと思うことの 1 つは、 00:07:23 - 00:07:24: 機械学習が 00:07:24 - 00:07:28: もはや純粋なテクノロジー企業ではなくなった 00:07:30 - 00:07:32: ことです。何年も前は、 00:07:32 - 00:07:34: 機械学習は 00:07:34 - 00:07:36: あなたが コンピューター サイエンス 00:07:36 - 00:07:38: 部門がそうするだろうし、 00:07:40 - 00:07:43: 、Baidu、Microsoft などのエリート AI 企業があなたと一緒にいることを知っていますが、今 00:07:43 - 00:07:46: ではそれが非常に普及しているため 00:07:46 - 00:07:48: 、n ではない企業でさえ 伝統的なテクノロジー 00:07:48 - 00:07:51: 企業の多くは、これらのツールを適用する大きな必要性を認識しており、 00:07:51 - 00:07:52: 私は最近、最もエキサイティングな仕事をたくさん見つけて 00:07:55 - 00:07:57: います。私の歴史を知っている人もいるかもしれません。 00:08:01 - 00:08:03: 10 年前にすでに偉大な企業だったもの 00:08:03 - 00:08:05: から、今日の偉大な AI 企業 00:08:05 - 00:08:07: に変革し、AI グループにそれ 00:08:07 - 00:08:09: を実行してもらい、会社の 00:08:09 - 00:08:11: 技術戦略を支援して、私 00:08:11 - 00:08:14: がすでに環境に優しい企業だったものから変革することもできます。 00:08:14 - 00:08:16: 何年も前から今日まで間違いなく 00:08:16 - 00:08:19: 中国最大の AI 企業であるため 00:08:21 - 00:08:23: 、2 つの大手テクノロジー企業 III の AI 変革を可能にするチームを構築することは 00:08:26 - 00:08:29: 素晴らしいことだと感じていますが、テクノロジーを超えて、 00:08:29 - 00:08:30: 多くのエキサイティングなことがあると思います 00:08:31 - 00:08:32: 他の業界が機械学習を採用し、これらのツールを効果的に使用できるようにするためにも、他の業界を支援するために取り組んでい 00:08:36 - 00:08:40: が、このクラスの後 00:08:40 - 00:08:42: 、皆さん一人一人が 00:08:42 - 00:08:45: 光沢のあるテクノロジー 00:08:45 - 00:08:47: 企業で機械学習を 00:08:47 - 00:08:48: 行っているか、これらの他の業界の 00:08:50 - 00:08:54: いずれかに参入して非常に価値のある機械学習プロジェクトをそこ 00:08:54 - 00:08:57: で行っています。また、機械学習の研究を行うことを主な目標としてこのクラスを受講している場合は、あなたは 00:09:02 - 00:09:05: 実際、私が知っている何人かは博士課程の 00:09:05 - 00:09:08: 学生です。このクラスによって 00:09:11 - 00:09:13: 、研究論文を実際に読んで理解するための 00:09:13 - 00:09:16: 十分な準備が整い、最先端の研究を推進するための資格が得られることを願っています。 00:09:23 - 00:09:30: 今日見てみましょう 機械 00:09:30 - 00:09:33: 学習が急速に進化しているのと同じように 00:09:33 - 00:09:35: 教育チーム全体 00:09:35 - 00:09:39: も​​ CS 229 を常に更新してきたので とても興味深い 00:09:40 - 00:09:41: です 機械学習の進歩のペースが 00:09:41 - 00:09:44: 加速しているように感じます 00:09:44 - 00:09:47: コストを変更した金額は 00:09:47 - 00:09:49: 年々増加して 00:09:49 - 00:09:51: いるため、昨年クラスを受講したお友達であれば、 00:09:51 - 00:09:53: 今年は少し違うことがわかります。 00:10:01 - 00:10:04: 機械学習の分野全体の進歩がゆっくりと加速しているように感じ 00:10:04 - 00:10:06: られるものに追いつくため 00:10:06 - 00:10:09: に、私たちは常にクラスを更新してい 00:10:12 - 00:10:15: このクラスをデジタルのみにしようとしていますが、 00:10:15 - 00:10:17: 前提条件について少し話さ 00:10:17 - 00:10:18: せてください。また、今年のいくつかの違いの前に友人がこのクラスを受講した場合に備え 00:10:23 - 00:10:27: て、前提条件 00:10:27 - 00:10:31: は 全員が 00:10:31 - 00:10:33: 基本的なコンピューター スキルと原理の知識を持っているので 00:10:33 - 00:10:35: 、Big O 記法 Q はバイナリ ツリーを表していることを知っています。 00:10:35 - 00:10:38: うまくいけば、これらすべての概念が何であるかを理解 00:10:40 - 00:10:43: 、私たち全員が確率的権利に関する基本的な知識を持っていると仮定し 01:05:53 - 01:05:55: ます。 00:10:47 - 00:10:49: 確率変数の期待値 確率 00:10:49 - 00:10:51: 変数の 00:10:55 - 00:10:58: 分散 確率と統計 00:10:58 - 00:10:59: を失ってから何年か知っている場合は、 00:11:02 - 00:11:05: 金曜日にレビューセッションを開催します。そこで 00:11:05 - 00:11:07: 、この前提条件の 00:11:07 - 00:11:09: 資料のいくつ 00:11:09 - 00:11:11: かを検討し、確率変数が 00:11:11 - 00:11:12: 期待値であるかどうかを知っていることを願っていますが、 00:11:12 - 00:11:14: これらの概念について少し曖昧な場合は、金曜日 00:11:14 - 00:11:17: のディスカッション セクションでもう一度説明します。 00:11:20 - 00:11:22: おなじみの基本的な線形代数も見られるので 00:11:22 - 00:11:23: 、行列がベクトルであったことを理解していただければ幸いです。 00:11:27 - 00:11:30: 固有ベクトルが何であるかを知っている場合はベクトルです。固有ベクトルが何であるかがよく 00:11:30 - 00:11:32: わからない場合は、さらに良いです. 00:11:49 - 00:11:52: 宿題を通してこれらのアイデアを練習するだけでなく、 00:11:52 - 00:11:55: 後で述べたように、オープンエンドのプロジェクトであり 00:11:55 - 00:12:00: 、実際にそこにあるプロジェクトの 1 つでは、今まで最初の課題の 00:12:00 - 00:12:03: ためにオクターブで MATLAB を使用してい 00:12:03 - 00:12:06: ましたが、今年はそうです 私たちは二 00:12:06 - 00:12:08: 畳紀のサイモンのものを Python に送り込もうとしている 00:12:08 - 00:12:11: ので、今日でも長い間、 00:12:11 - 00:12:14: 私がオクターブのプロトタイプを時々使用していることを知っていると思います。 00:12:16 - 00:12:18: 、オクターブの構文はとても素晴らしく、 00:12:18 - 00:12:21: 非常に単純な実験を非常に迅速に実行する 00:12:21 - 00:12:23: だけだからです。 00:12:27 - 00:12:30: MATLAB Python の世界から、 00:12:30 - 00:12:33: MATLAB オクターブの世界へと、ますます Python を使用するように 00:12:33 - 00:12:36: なり、最終的には 00:12:36 - 00:12:38: 本番環境の Java または C++ のような世界に移行 00:12:38 - 00:12:40: していると思います。 00:12:43 - 00:12:46: 私はそのプロセスを推進してき 00:12:46 - 00:12:48: たので、このコースでは、Python numpy で 00:12:48 - 00:12:51: より多くの割り当てを行うことができます。おそらく、ほとんど 00:12:51 - 00:12:54: すべての割り当てを Python 00:12:54 - 00:12:58: numpy で 00:12:58 - 00:13:01: 実行できるよう 00:13:01 - 00:13:02: になりました。 学習グループを形成することをお勧めします。 00:32:22 - 00:32:28: 私は 00:13:06 - 00:13:09: 長い間教育に魅了されてき 00:13:09 - 00:13:11: ました。教育学の教育を長い間研究しており、 00:13:11 - 00:13:13: 私たちのようなインストラクターがどのようにあなたをサポートできるかを知っ 00:13:13 - 00:13:16: ています。 より効率的に 00:13:16 - 00:13:17: 学び、私が教育研究の文献から学んだ教訓の 1 つ 01:02:54 - 01:02:58: は、 00:13:19 - 00:13:21: このような非常に技術的なクラスでは、 00:13:21 - 00:13:24: 勉強会を編成すれば 00:13:24 - 00:13:26: 、おそらくより簡単に時間を過ごせるということです。そのため、 00:13:26 - 00:13:28: CS News と私は非常に 00:13:28 - 00:13:30: 技術的なクラスを選びます。 教材はたくさんの数学がある 00:13:30 - 00:13:31: ので、プログラムは難しく、 00:13:31 - 00:13:34: 一緒に勉強する友達のグループ 00:13:37 - 00:13:38: がいます.お互いに質問をしたり、一緒に仕事をしたりすることができるので、おそらく簡単な時間を過ごすことができます。 00:13:46 - 00:13:49: コードの基準に関してあなたにお願いすることは、宿題の問題を自分で正しく行うようにお願いすることです。 00:13:52 - 00:13:55: より具体的には、 00:13:55 - 00:13:57: 宿題の問題や友人について話し合うことは問題ありません 00:13:57 - 00:13:59: が、宿題の問題について友人と話し合った後 00:13:59 - 00:14:01: 、私たちは あなたとあなたの友人が一緒に開発したことを知っているメモを参照せずに 00:14:01 - 00:14:03: 、戻って自分で解決策を書き上げるように依頼して 00:14:07 - 00:14:10: コードのクラスは 00:14:10 - 00:14:13: 書かれています ウェブサイトにデジタルで投稿されたクラス配布資料に明確に記載 00:14:13 - 00:14:16: されているため 00:14:18 - 00:14:19: 、多くのコラボレーションがあり、何 00:14:19 - 00:14:21: が許可されていないかについて質問がある場合は 00:14:21 - 00:14:23: 、コースのウェブサイトにある文書を参照してください。 00:14:25 - 00:14:28: スタンフォード大学の名誉 00:14:28 - 00:14:30: 規定と 00:14:30 - 00:14:32: 学生が自分の 00:14:32 - 00:14:34: 仕事をするのと同じように、私たちは基本的に 00:14:34 - 00:14:38: ソカがそれについて話し合うためにあなた自身の仕事をする 00:14:39 - 00:14:41: ようにあなたに頼みましたが、友人と家庭の問題について話し合った後、最終的に私たちはあなたに 00:14:41 - 00:14:43: あなたの問題を自分で書くように頼みました. 00:14:43 - 00:14:46: 宿題の提出物があなた自身の仕事の権利を反映するように、 00:14:46 - 00:14:49: 私はこれを気にかけ 00:14:49 - 00:14:52: ています.CS 239を持っていることを知っているので、CS 00:14:52 - 00:14:54: 229は 00:14:54 - 00:14:57: 雇用主が認識しているクラスの1つです.皆さんが知っているかどうかはわかりませ 00:14:57 - 00:14:59: んが、彼らはええと 00:14:59 - 00:15:01: 会社 彼らは求人広告を 00:15:01 - 00:15:04: 出している 慰めが得られる限り、 00:15:04 - 00:15:06: 今すぐCST 3を完了すると 00:15:06 - 00:15:07: 、面接が正しく行われることを保証します 00:15:07 - 00:15:10: 私はそのようなものを見たので、私は思う 00:15:13 - 00:15:15: CSU to 9 コンピューターであることの意味の神聖さを維持するために 00:15:15 - 00:15:17: 、私は皆そう言った 00:15:17 - 00:15:21: ので、実際に仕事をしたり、名誉コードに関連して 00:15:21 - 00:15:22: 受け入れられたコラボレーションの範囲内にとどまったりします。 00:15:29 - 00:15:37: これが何であるかを知っていれば 00:15:37 - 00:15:41: 、CS 339 の最良の部分の 1 つは、それ 00:15:41 - 00:15:49: が判明したことだと 00:15:49 - 00:15:53: 思います。すみません 00:15:53 - 00:16:07: 、マウス カーソルを探してみ 00:16:11 - 00:16:14: ます。 エリサを中傷しないでください。 00:16:14 - 00:16:26: これは少しぎこちないので 00:16:26 - 00:16:30: 、クラスの最高の部分の1つは、彼女 00:16:30 - 00:16:34: がそれについて申し訳 00:16:34 - 00:16:37: ないことです。気にしないでください。これはしません。後で 00:16:37 - 00:16:38: オンラインで自分で行う 00:16:38 - 00:16:44: ことができます。 Chrome 00:16:44 - 00:16:46: に加えて最近 Firefox を使い始めまし 00:16:46 - 00:16:50: たが、これは単なる取り違え 00:16:50 - 00:16:55: でした。このクラスの最高の部分の 1 つはクラスの 00:16:55 - 00:16:59: プロジェクトです。そのため、有意義な機械学習を行う資格を与えてくれる資質を持つ女の子の 1 人を知っています。 00:17:02 - 00:17:06: プロジェクトとそうであることの 1 つ 00:17:06 - 00:17:07: そのスキルセットを確実に身につけるための方法 00:17:07 - 00:17:10: は、このクラスを通じてです。うまくいけば 00:17:10 - 00:17:13: 、TAS の助けを借りて、有意義な機械学習プロジェクトを完了する 00:17:13 - 00:17:15: ために少人数のグループで作業することをサポートし 00:17:17 - 00:17:20: たいと考えてい 00:17:20 - 00:17:23: ます。 今日は後で 00:17:23 - 00:17:25: 、友達とブレインストーミングを始めましょう 00:17:28 - 00:17:31: あなたが取り組む可能性のあるクラス プロジェクトのいくつかと、CSU で人々が行っている最も 00:17:31 - 00:17:33: 一般的なクラス プロジェクトについて考えてみましょう 00:17:33 - 00:17:35: それが 00:17:35 - 00:17:37: ピッカー エリアであることを 00:17:37 - 00:17:39: 知っています 機械 00:17:40 - 00:17:42: 学習を 00:17:43 - 00:17:46: 適用して、その分野のアプリケーションに適した機械学習システムを構築できるかどうかを確認します。 00:17:46 - 00:17:47: コースの Web サイトにアクセスすると、 00:17:47 - 00:17:49: cs2 2/9 が教育に時間を費やし 00:17:49 - 00:17:51: 、前年のプロジェクトを見ることができます。 00:17:51 - 00:17:53: あなたは機械学習プロジェクトが 00:17:53 - 00:17:55: 適用されているのを見ています 想像できるほとんどすべてのアプリケーションを知っています 00:17:57 - 00:18:00: 太陽の下で 癌の診断なし 00:18:00 - 00:18:03: からアートの作成、多くの 00:18:03 - 00:18:06: プロジェクトまで、すべてが他の分野に適用されます 00:18:08 - 00:18:10: EE または私のコンターリングまたはシルバー 00:18:10 - 00:18:12: エンジニアリングまたは地震イマージョンなどの適用分野に適用する工学 00:18:14 - 00:18:18: の適用 文献を理解するために適用すること それは知るために適用 00:18:18 - 00:18:21: することです 00:18:21 - 00:18:23: 前年のプロジェクトの多く 00:18:23 - 00:18:25: が掲載されているのを見ると、 コースの Web サイト 00:18:25 - 00:18:27: を参考にして、このクラスを 00:18:27 - 00:18:29: 修了した学生がどのような種類のプロジェクトを完了 00:18:31 - 00:18:34: することができるかを確認することができます。また、インスピレーションを得るためにそれを見て、自分ができる 00:18:34 - 00:18:36: ことの感覚をつかむ 00:18:36 - 00:18:38: こともできます。 00:18:38 - 00:18:41: このクラスの結論と、前年のプロジェクトを見て、 00:18:44 - 00:18:48: 自分で何をするかについてのインスピレーションが得られるかどうかを確認してください。 00:18:50 - 00:18:53: 小さなグループでクラスのプロジェクトを行う 00:18:53 - 00:18:56: ことをお勧めします。今日のクラスの後も、作成を開始することをお勧めします。 00:18:58 - 00:18:59: 研究グループを形成 00:18:59 - 00:19:01: する目的と 00:19:01 - 00:19:03: 、クラスのプロジェクトを一緒に行う小さなグループを見つける目的の両方で、クラスの友達と 00:19:03 - 00:19:07: 一緒にプロジェクト gr を形成するようお願いします。 00:19:07 - 00:19:11: サイズ 3 までのプロジェクト パートナーなしで自分自身で行うことを主張する場合、ほとんどのプロジェクト 00:19:11 - 00:19:14: グループはサイズ 2 または 3 になり 00:19:21 - 00:19:23: 他の 2 人と一緒に作業すると 00:19:23 - 00:19:25: 、より簡単な時間を得ることができます。非常に大規模な 00:19:25 - 00:19:27: プロジェクトの場合、例外的な範囲のプロジェクトの場合 00:19:29 - 00:19:32: 、3 人では実行できない場合があります 00:19:35 - 00:19:38: サイズは 4 です 00:19:38 - 00:19:40: が、私たちの期待ではありますが、私たちは 00:19:40 - 00:19:42: プロジェクト全体を 4 人のグループで行い、 00:19:42 - 00:19:44: プロジェクト グループのサイズが 1 から 3 の場合よりも高い基準で 00:19:45 - 00:19:47: 行ってい 00:19:47 - 00:19:50: ます。つまり、プロジェクト チームのサイズが 1 00:19:50 - 00:19:52: 人または 2 人または 3 人の場合、評価は次のようになります。 00:19:52 - 00:19:55: プロジェクト グループが 00:19:55 - 00:19:57: 3 人以上の場合、1 つの基準 クラス プロジェクトの作成に関しては、より厳しい基準を使用し 00:20:03 - 00:20:07: ます。それは、これが午前 9 時 30 分に始まるので、ほとんどの皆さんにとってシーンがそうであることを私が知っていることを思い出させてくれます 00:20:09 - 00:20:12: の上 多くの人にとって、四半期の初日は 00:20:12 - 00:20:14: これかもしれません / 00:20:14 - 00:20:16: スタンフォードでの 00:20:16 - 00:20:18: あなたの最初の目的は、スタンフォードで最初の目的を 00:20:20 - 00:20:23: 達成した人のうちの 00:20:23 - 00:20:25: 何人かです。 彼らの 00:20:25 - 00:20:27: 手は実際にあなたの手を上げるので 00:20:28 - 00:20:30: 、誰かがあなたに手を挙げ 00:20:30 - 00:20:33: させてスタンフォードに歓迎し、挨拶して 00:20:33 - 00:20:35: 自分自身と良い友達 00:20:35 - 00:20:37: を見せたら、今日のクラスを離れているかもしれないことを知っていることを願っています。 皆さんの多くは 00:20:44 - 00:20:53: 大丈夫です。もう少しロジスティクスがある 00:20:53 - 00:20:58: ので、月曜日と水曜日にここで行う主な講義に加えて見てみましょう 00:21:03 - 00:21:06: 。39 には 00:21:06 - 00:21:09: 、金曜日に開催されるディスカッション セクションもあり 00:21:09 - 00:21:11: 、私たちが行うすべてのことを参照してください。 すべての 00:21:11 - 00:21:12: 講義とディスカッション セクションは 00:21:12 - 00:21:15: 録画され 00:21:15 - 00:21:19: 、オンライン Web サイトを通じて SCPD を通じて放送されます。ディスカッション セクションの 1 つは 00:21:22 - 00:21:25: 通常、金曜日に TAS によって教えられ、 00:21:25 - 00:21:27: ディスカッション セクションに出席します。 ns は 00:21:27 - 00:21:31: オプションであり 00:21:32 - 00:21:35: 、つまり、セクションからこっそり入ってくる中間試験の資料がないことを約束することを知っているということです。 00:21:35 - 00:21:37: したがって、それは 00:21:37 - 00:21:39: 100% オプションであり、すべての宿題を行うことができます。 00:21:41 - 00:21:43: この質問セクションに参加せずに適切なプロジェクトを作成します 00:21:43 - 00:21:45: が、 00:21:45 - 00:21:47: 最初の 3 つのディスカッション セクション 00:21:49 - 00:21:51: についてはディスカッション セクションを使用します。 00:21:53 - 00:21:57: したがって、線形代数または基本的な 00:21:57 - 00:21:59: 犯罪統計を 00:21:59 - 00:22:01: 調べて、Python numpy について少し説明します。 00:22:01 - 00:22:03: これらのフレームワークに慣れていない場合に 00:22:03 - 00:22:05: 備えて、最初の数週間はそれ 00:22:05 - 00:22:07: を行い、 00:22:07 - 00:22:09: その後、この四半期の後半に開催されるディスカッション セクションでは通常、 00:22:09 - 00:22:12: それらを使用してそれらを使用します。 より高度なオプションの 00:22:12 - 00:22:15: 教材、たとえば cs50 は現在、クラスで 00:22:15 - 00:22:17: 聞いているアルゴリズムの学習に関与しています 00:22:19 - 00:22:22: 最適化アルゴリズムに依存していますが、焦点を当てたいと思い 00:22:22 - 00:22:24: ます 学習アルゴリズムのクラスを受講し、 00:22:24 - 00:22:26: 凸最適化に費やす時間を短縮する 00:22:26 - 00:22:28: ため、凸最適化の 00:22:28 - 00:22:30: より高度な概念について聞きたい場合は、 00:22:30 - 00:22:32: ディスカッション セクションに任せます。 00:22:32 - 00:22:35: その後、 00:22:35 - 00:22:38: 他の高度なトピックはほとんどありません。 00:22:40 - 00:22:44: 金曜日のディスカッションセクションに延期することを計画していた 00:58:00 - 00:58:05: ので、 00:22:52 - 00:23:00: クールでああ、ロジスティクスの最後のビットを 00:23:02 - 00:23:04: 見てみましょう。あなたの何人かが見たデジタルツールがありますが、このクラスで 00:23:06 - 00:23:09: 、オンライン Web サイトを通じて多くのディスカッションを推進します。 Piazza 00:23:09 - 00:23:10: カブール広場を乱用する人が何人いますか Piazza 00:23:10 - 00:23:13: Cavour 大丈夫です ほとんどの場合、皆さん、 00:23:14 - 00:23:18: とても素晴らしいので、 00:23:19 - 00:23:21: これまでに見たことがない人のためのオンライン ディスカッション ボードですが 00:23:21 - 00:23:24: 、Piazza に積極的に参加し、すべてに回答することをお勧めします。 00:23:26 - 00:23:29: 学生の質問 コース全体に戻って、 00:23:29 - 00:23:31: 貢献することが学習の最善の方法の 1 つであると思い 00:23:37 - 00:23:39: で回答があれば、それは 00:23:39 - 00:23:41: あなたとクラスメートを助ける 00:23:45 - 00:23:46: ことが多いので、プライベートな質問がある人には 00:23:48 - 00:23:52: そうするよう強くお勧めします. 00:23:52 - 00:23:55: または、パブリック フォーラム 00:23:55 - 00:23:56: で共有するのが適切でないことがわかっているもの。その 00:23:57 - 00:24:00: は、クロス メール 00:24:00 - 00:24:03: アドレスにもメールを 00:24:05 - 00:24:07: お送りください。 連絡先で見つけることができますが、 00:24:07 - 00:24:09: 技術的または 00:24:09 - 00:24:12: 合理的なもの 00:24:12 - 00:24:14: については、ほとんどの技術的な質問を含むクラスを共有することが合理的 00:24:14 - 00:24:16: です。ほとんどのロジスティクスに関する 00:24:16 - 00:24:18: 質問は、次のような質問を書き 00:24:22 - 00:24:24: これに関する水曜日の配布物など、 00:24:24 - 00:24:26: 個人的または 00:24:26 - 00:24:29: 非公開の性質のものではない質問については 00:24:29 - 00:24:30: 、電子メールではなくピアッツァに投稿することを強くお勧めします 00:24:30 - 00:24:33: 統計的に 00:24:33 - 00:24:36: は、Piazza の投稿にこれを投稿する方が実際にはより迅速な回答が得られるため、 00:24:38 - 00:24:40: 私たちの 1 人があなたに返信するのを待っている 00:24:44 - 00:24:47: かどうかがわかります。 なぜ 00:24:47 - 00:24:48: ブレースが上がるのか心配しない 00:24:48 - 00:24:51: でください。リンクを送信し、それを使用する方法を示します 00:24:52 - 00:24:57: .CS 339を教えたとき 00:24:57 - 00:25:01: とは異なり、1つの損失を計画するのは現実的なことです。 00:25:03 - 00:25:06: そのため 00:25:10 - 00:25:11: 、最新の機械学習アルゴリズム 00:25:11 - 00:25:15: を紹介し、今年行っている小さな変更を取り上げるために、シラバスと技術コンテンツを常に更新しています 00:25:15 - 00:25:18: 。1 つ 00:25:18 - 00:25:20: は MATLAB ではなく Python で、もう 1 つは Python であると思います。 00:25:20 - 00:25:24: 中間試験があることは 00:25:24 - 00:25:27: ご存知のとおり、これは時限のある中間試験であり、今日、この四半期に 00:25:27 - 00:25:29: 中間試験を実施する予定です。 00:25:31 - 00:25:34: そのため、それが何を意味するのかわからないと言ったとき、何人かの人々がただ 00:25:34 - 00:25:36: 息を切らして 00:25:36 - 00:25:37: いることを知っています。 00:25:37 - 00:25:41: ショックでいっぱいの幸せでした。 00:25:41 - 00:25:45: 心配するな 楽しいですね 大好き 00:25:45 - 00:25:51: です 大丈夫 ああ、これでおしまい 00:25:51 - 00:25:54: です ロジスティクスの面についてはおしまいです 00:25:54 - 00:25:56: 確認させてください 質問があれば確認させてください 00:26:18 - 00:26:23: プレスの 1 つです。 00:26:23 - 00:26:25: 私はそれを教えていたので、 00:26:25 - 00:26:30: 他の誰かが春学期に教えています。 00:26:30 - 00:26:33: 実際、冬に提供されるとは知らなかった 00:26:47 - 00:26:51: Neverending でノートを教えている大物が春に教えていたと思います。 00:26:51 - 00:26:58: 冬に 00:26:58 - 00:27:00: この種のセクションが記録さ 00:27:00 - 00:27:02: れることはあまりないと思います。はい、そう 00:27:02 - 00:27:04: です。ちなみに、なぜ私が記録している 00:27:04 - 00:27:06: のか疑問に思っているなら、質問を繰り返しています。私が記録しているのは奇妙に感じます 00:27:06 - 00:27:07: 家で 00:27:07 - 00:27:09: 見ている人 00:27:09 - 00:27:11: が質問を聞くことができるようにマイクを使用しますが、 00:27:11 - 00:27:13: 講義とディスカッションセクションの両方 00:27:13 - 00:27:16: が録音され、ウェブサイトに掲載される可能性があります。 00:27:21 - 00:27:25: ああ、でも私は 00:27:25 - 00:27:30: 今年は週に 60 時間のオフィスアワーが 60 時間あると 00:27:34 - 00:27:36: 思います。それで、うまくいけば、昨年 00:27:36 - 00:27:38: の原因を常に改善しようとして 00:27:41 - 00:27:44: ます。 60 60 時間の 00:27:44 - 00:27:46: サッカーがあります 60 は週にすべてのスロットを提供しています 00:27:46 - 00:27:48: これは長い 00:27:48 - 00:27:50: ように思えます。 00:28:06 - 00:28:08: ホーマーがあなたが講義をカバーしていると言ったときのような論理的な 00:28:08 - 00:28:11: ことは、私たちははいを持っている 00:28:11 - 00:28:16: ので、私たちは4つの計画 00:28:20 - 00:28:23: の宿題を持っています。 各 00:28:23 - 00:28:24: 宿題が呼び出されたとき、 00:28:24 - 00:28:28: Opie が宿題とプロジェクト 00:28:28 - 00:28:31: 提案のために呼び出したとき、今から数週間後、 00:28:31 - 00:28:33: 最終プロジェクトは四半期の終わりに 00:28:33 - 00:28:35: 期限が切れますが、他のすべての正確な日付 00:28:35 - 00:28:39: はコースのウェブサイトに記載されてい 00:28:43 - 00:28:45: ます。 このクラスから 39a への 00:28:45 - 00:28:49: ence はどのように死んでいるのか考えさせてくださいはいはい 00:28:49 - 00:28:52: そうそう私は今朝早く答え方を議論していたことを知っ 00:28:52 - 00:28:54: ています。それは間違いなく 00:28:54 - 00:28:58: 数回 00:29:00 - 00:29:02: です。 機械学習 00:29:02 - 00:29:05: 教育はまさに急増し 00:29:05 - 00:29:07: ています。なぜなら、誰も 00:29:07 - 00:29:12: がこのようなことを学びたがっているのを誰もが見ていると 00:29:12 - 00:29:13: 思うからです。コンピューター サイエンス 00:29:15 - 00:29:16: は機械学習の提供数を増やそ 00:29:16 - 00:29:20: うとしており、実際に CSC 39a への登録を維持 00:29:20 - 00:29:23: しています 学生数は 00:29:23 - 00:29:25: 100 人と比較的少ないので 00:29:25 - 00:29:26: 、あまり多くの人に登録を勧めたくはありません。すでに登録上限に達し 00:29:27 - 00:29:29: ている可能性がある 00:29:31 - 00:29:34: ためです。CC 90 に登録しないでください 00:29:34 - 00:29:37: - 398 この四半期には容量がありません 00:29:37 - 00:29:40: が、229 a は 00:29:40 - 00:29:44: 数学的ではなく 00:29:44 - 00:29:48: 、機械学習の比較的応用的なバージョンである 00:29:52 - 00:29:55: 、この中で 69 ACS 230 NCSU を教えていると思います。 00:29:55 - 00:29:58: 3 CS 229 の 4 分の 1 が最も 00:29:58 - 00:30:01: 数学的で 00:30:01 - 00:30:03: 、63 9 a よりも少し適用が少なく、機械学習が適用されます 00:30:03 - 00:30:05: 。230 は 00:30:05 - 00:30:06: ディープ ラーニングである 00:30:06 - 00:30:11: ため、学生への私のアドバイスは、63 962 9 00:30:11 - 00:30:21: はこれを書き留め 00:30:21 - 00:30:24: ておくことです。 229aは反転教室形式で教えられているため 00:30:26 - 00:30:29: 、学生は主 00:30:29 - 00:30:32: にCourseraのウェブサイトでビデオを視聴し、 00:30:32 - 00:30:34: 多くのプログラミング演習を行い 00:30:34 - 00:30:38: 、毎週のディスカッションセクションに参加しますが 00:30:38 - 00:30:40: 、キャプテンRomansとの少人数のクラス 00:30:40 - 00:30:44: です. 00:30:44 - 00:30:47: cs50 9 + CS 2:30 でそれらを実行する準備ができていると感じている場合は 00:30:47 - 00:30:52: 、cs50 9 は数学のために知っています 00:30:52 - 00:30:55: が、これは非常に重いワークロードで 00:30:55 - 00:30:58: あり、かなり挑戦的なクラス 00:30:58 - 00:31:01: です。 CCTV 969 00:31:01 - 00:31:07: a を最初に取得してから 00:31:07 - 00:31:11: 、cs50 90s TV 9 a を使用すると、より 00:31:11 - 00:31:14: 広範な機械学習アルゴリズムをカバーできます 00:31:14 - 00:31:17: 。cs2 30 は、ディープ ラーニング アルゴリズムに特に焦点を当ててい 00:31:17 - 00:31:19: ます。これは、 00:31:19 - 00:31:21: はるかに狭いアルゴリズム セットですが、 00:31:23 - 00:31:26: 深層学習の最もホットな分野の 1 つを知っていますか? 00:31:26 - 00:31:28: 3 つのクラス間で内容があまり重複していない 00:31:28 - 00:31:29: ため、実際に 00:31:29 - 00:31:32: 3 つ 00:31:32 - 00:31:34: すべてを受講すると、それらすべてから比較的異なることを学ぶことになり、 00:31:34 - 00:31:36: 生徒は同時に 29 と 229 を受講します。 00:31:39 - 00:31:40: 重複がありますが、それらは関連するアルゴリズムをカバーしていることを知ってい 00:31:40 - 00:31:43: ますが、異なる 00:31:43 - 00:31:44: 観点から見ているため、 00:31:44 - 00:31:46: 実際にこれらのクラスを同時に複数受講する人 00:31:46 - 00:31:50: もいますが、すぐに9 00:31:50 - 00:31:52: つがより適用され、実用的であることがわかります 00:31:52 - 00:31:55: ノウハウのハンズオンなど、 00:31:55 - 00:32:00: 数学的ではなく、CS 230も 00:32:00 - 00:32:02: 数学的 00:32:02 - 00:32:03: ではなく、仕事に取り掛かるようなものに適用されますが、 00:32:03 - 00:32:06: スーザンハニーを参照してください。 00:32:28 - 00:32:30: 一般的に、学生 00:32:30 - 00:32:32: が時間のためにそれをしない 00:32:32 - 00:32:38: ことを望んでいますが、あなたは何を望んでいますか 00:32:38 - 00:32:41: 、239から3000に登録されている人は確かにそれに行き 00:32:41 - 00:32:44: ます。あなたの多くは興味深いものではありません。 00:33:01 - 00:33:04: 、ええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええええ スタンフォードについて 1 つだけ知っ 00:33:07 - 00:33:08: ていることは、彼らが世界にいる AI ワールド マシン上にあることです。 00:33:08 - 00:33:09: ええ、機械学習よりも大きいです。 00:33:09 - 00:33:10: 適切な機械はディープ ラーニングよりも大きいです。 00:33:13 - 00:33:15: スタンフォード大学の学生であることの素晴らしい点の 1 つは、 00:33:15 - 00:33:18: できることです。そうするべきだと思います。 複数の 00:33:18 - 00:33:20: クラスを正しく受講し 00:33:20 - 00:33:21: てください。私たちはスタンフォード大学 00:33:21 - 00:33:23: の機械学習の世界で長年呼ばれてきましたが、 00:33:23 - 00:33:27: CS 239 を超えても 00:33:30 - 00:33:32: 、複数の視点を含む複数のクラスを受講する価値がある 00:33:32 - 00:33:35: ので、必要に応じて 本当に効果的 00:33:35 - 00:33:37: であるためには、運転した後に知っています。そこに立ってい 00:33:37 - 00:33:38: ないでください。 00:33:38 - 00:33:39: 機械学習の指数になりたいです。専門家になりたいです。 00:33:39 - 00:33:41: 深層学習であり、 00:33:41 - 00:33:43: おそらく統計で知りたいでしょう。 00:33:45 - 00:33:46: 信頼度の最適化について少し知りたいかもしれません 学習する 00:33:46 - 00:33:48: ときに力についてもう少し知りたいかもしれません 00:33:49 - 00:33:51: 多くのことについて少し計画することについて少し知って 00:33:51 - 00:33:54: いるので 00:33:54 - 00:34:03: 、もしあれば、このような複数のクラスを受講することをお勧めし 00:34:03 - 00:34:05: ます もう質問はありません。 00:34:15 - 00:34:17: 少し話しましょ 00:34:32 - 00:34:35: 今後 10 週間で学習することの絶対的な概要を把握することで、 00:34:35 - 00:34:38: 機械学習とは何かを 00:34:38 - 00:34:39: 正しく理解できます 最近はどこにでもある 00:34:40 - 00:34:41: ようで、非常に多くの場所で役立つ 00:34:46 - 00:34:50: ようです。 00:34:50 - 00:34:52: 共有するために私の個人的な偏見を見てください 00:34:52 - 00:34:54: ね、あなたはこれらの人々が 00:34:54 - 00:34:56: 学習アルゴリズムを構築して大金を稼いでいるというニュースを読んでい 00:34:56 - 00:34:58: ます。それは素晴らしいことだと思います。 00:35:00 - 00:35:02: わくわくするの 00:35:02 - 00:35:04: は、私たちが正しく行うことができる有意義な仕事 00:35:04 - 00:35:06: です.機械学習を通じて現在 00:35:06 - 00:35:07: 存在する大きな技術 00:35:07 - 00:35:09: 的混乱が発生するたび 00:35:11 - 00:35:13: に、世界の大部分を作り直す機会が得られる 00:35:13 - 00:35:15: と思います.倫理的に行動する場合 00:35:15 - 00:35:17: 原則に基づいた方法で、これら 00:35:17 - 00:35:20: の機械学習の超能力を使用し 00:35:20 - 00:35:22: て、人々の生活を正しく支援することがわかっていることを行うことが 00:35:22 - 00:35:25: できるかもしれません。 00:35:25 - 00:35:27: 医療システムを改善できるかもしれません。 00:35:27 - 00:35:30: すべての子供にパーソナライズされた家庭教師 00:35:30 - 00:35:32: を提供できるかもしれません。 00:35:32 - 00:35:34: 悪化させるのではなく、 00:35:34 - 00:35:37: 私が 00:35:37 - 00:35:38: 機械学習で見つけた意味は、 00:35:38 - 00:35:41: 私たちが参加してこれらのツールを手伝ってくれることを熱望している人々が非常に多いということ 00:35:44 - 00:35:47: だと 01:14:45 - 01:14:48: 思います。 00:35:52 - 00:35:54: うまくいけば、他の人々を助け 00:35:56 - 00:35:58: 、世界をより良い場所にするような方法で、世界のいくつかの意味のあるピースを本当に作り直す機会はvです 00:35:58 - 00:36:00: シリコンバレーでは決まり文句です 00:36:00 - 00:36:02: が、これらのツールを使用すると、実際 00:36:02 - 00:36:04: にそれを行う力があり、彼らが 00:36:04 - 00:36:05: 大量のお金を稼いでいることも知っていると思いますが、私 00:36:07 - 00:36:14: たちができる仕事にははるかに大きな意味がありますが、ええと 00:36:14 - 00:36:15: 機械学習のすべての興奮にもかかわらず、機械 00:36:15 - 00:36:17: 学習とは何かということで 00:36:20 - 00:36:24: 機械学習の著者であるサミュエル 00:36:24 - 00:36:26: の定義をいくつか紹介しましょう。彼の名声は、チェッカーをプレイするプログラムを構築することでした。 00:36:26 - 00:36:28: 次のように定義されています。 00:36:34 - 00:36:37: 興味深いことに、サミュエル 00:36:37 - 00:36:39: も何十年も前にチェッカーを 00:36:40 - 00:36:41: プレイするプログラムを書いたとき 00:36:41 - 00:36:43: 、その日の議論が 00:36:43 - 00:36:46: コンピューターにやるように 00:36:46 - 00:36:49: 明確に指示されていないことを実行し、アーサー 00:36:49 - 00:36:52: ・サミュエルがチェッカーをプレイするプログラムを書きまし 00:36:52 - 00:36:56: たが、セルフプレイを通じて何を学びましたか? 00:36:59 - 00:37:01: 勝ちにつながる可能性が高いチェッカーボードのパターンと、負けにつながる可能性が高いチェッカーボードのパターンは 00:37:03 - 00:37:06: 、アーサー・サミュエルよりも優れていることを学びます。 00:37:06 - 00:37:09: 著者自身がチェッカーをプレイしていた 00:37:09 - 00:37:10: ので、当時は 00:37:10 - 00:37:12: 注目に値する結果と見なされていました.コンピューター 00:37:14 - 00:37:16: は、何かを行うためのソフトウェアを作成できました. 00:37:16 - 00:37:17: コンピュータープログラムは、彼自身が 00:37:17 - 00:37:19: 正しく行うことができなかったソフトウェアを作成できました.このプログラムは 00:37:19 - 00:37:26: より良くなり、サミュエルも 今日、私たち 00:37:31 - 00:37:34: はコンピューターや機械学習 00:37:34 - 00:37:36: アルゴリズムが非常に 00:37:36 - 00:37:39: 多くのタスクで人間よりも優れていることに慣れていると思いますが、特定のタイプのタスクで 00:37:39 - 00:37:41: 音声認識のような狭いタスクを選択すると、 00:37:43 - 00:37:45: 人間を超える可能性があることがわかりました ゴールのゲームをプレイする 00:37:45 - 00:37:47: ような狭いトスであった場合、レベルのパフォーマンスは、それに 00:37:49 - 00:37:51: 本当に大量の計算 00:37:51 - 00:37:55: 能力を投入してセルフプレイすること 00:37:55 - 00:37:57: で、これらの狭いタスクで非常に優れていることを知っているコンピューターを持つことができます 00:37:57 - 00:38:01: が、これは 00:38:01 - 00:38:03: おそらく最初のそのようなものの1つです コンピューティングの歴史の例であり、 00:38:03 - 00:38:08: これは今 00:38:08 - 00:38:11: でも最も広く引用されている定義の 1 つであると 00:38:13 - 00:38:15: 思います citly プログラム 00:38:15 - 00:38:18: ええと、私の友人である Tom Mitchell は彼の教科書の中で、 00:38:18 - 00:38:21: これを適切に設定された 00:38:21 - 00:38:25: 学習問題プログラムと定義しました。経験から学ぶと言われてい 00:38:31 - 00:38:34: トムに 00:38:34 - 00:38:37: 、韻を踏ませたかったからこの定義を書いたのかと尋ねたところ、彼は 00:38:39 - 00:38:43: イエスとは言いませんでした。 00:38:51 - 00:38:53: プログラムは 00:38:53 - 00:38:55: 自分自身に対してたくさんのゲームをプレイするので、 00:38:55 - 00:38:57: コンピュータは多くの忍耐力を持って 00:38:57 - 00:38:59: 何日もそこに座って自分自身に対してチェッカーのゲームをプレイする 00:38:59 - 00:39:02: ので、それが経験 II 00:39:02 - 00:39:03: トス T はプレイするチェッカーをトスすることで 00:39:03 - 00:39:06: あり、パフォーマンス測定値 P は 00:39:06 - 00:39:09: おそらくこのプログラムが 00:39:09 - 00:39:10: チェッカーの次のゲームは 00:39:10 - 00:39:12: 次の対戦相手と対戦するので、 00:39:12 - 00:39:14: これは適切に設定された学習問題で 00:39:14 - 00:39:18: あり、このセット内でチェッカーを今行うと言えます 00:39:18 - 00:39:21: 機械学習の分野では、機械学習 00:39:21 - 00:39:24: で使用するさまざまなツールが多数 00:39:24 - 00:39:27: あります。次の 10 00:39:27 - 00:39:30: 週間で、これらのさまざまなツールについて学習します。 00:39:30 - 00:39:33: その最初の 00:39:33 - 00:39:34: 、最も広く使用されているツールは、 00:39:34 - 00:39:38: 教師あり学習です。 00:39:38 - 00:39:40: ホワイトボードに切り替えて、 00:39:40 - 00:39:59: 画面を消去する方法を知っていますか? 00:39:59 - 00:40:01: 今日やりたいことは 00:40:01 - 00:40:03: 、機械学習ツールの主要なカテゴリのいくつかを実際に調べて 00:40:07 - 00:40:11: 、この四半期の終わりまでに次のことを学ぶことです。 00:40:11 - 00:40:19: 最も広く使用されている 00:40:19 - 00:40:22: 機械学習 - 今日は 00:40:22 - 00:40:23: 実際には教師あり学習です。次に、教師あり学習が 00:40:23 - 00:40:24: 何であるかを知っている人がどれだけいるかを調べます. 00:40:24 - 00:40:29: 半分の人 00:40:29 - 00:40:30: は大丈夫かもしれません. 00:40:30 - 00:40:33: 簡単に定義さ 00:40:33 - 00:40:38: せてください。 住宅 00:40:38 - 00:40:40: 価格のデータベースなので 00:40:40 - 00:40:43: 、横軸 00:40:43 - 00:40:45: に家のサイズを平方 00:40:45 - 00:40:48: フィートでプロットし、縦軸 00:40:48 - 00:40:51: に家の価格を正しくプロットします。 00:40:51 - 00:40:59: おそらくデータセットはそのように見える 00:40:59 - 00:41:01: ので、横軸をこれを 00:41:01 - 00:41:06: X と呼び、縦軸を Y と呼ぶことにします 00:41:18 - 00:41:20: 、コロラド州に幸運にも家を所有していて、 00:41:20 - 00:41:23: それを売ろうとしていて 00:41:23 - 00:41:25: 、家の価格を知りたい 00:41:25 - 00:41:29: ので、家のサイズが 00:41:29 - 00:41:31: 横軸の金額を知っている 00:41:31 - 00:41:34: これは 5 インチ平方フィート 00:41:34 - 00:41:37: 1,000 平方フィート 1,500 平方フィートなので 00:41:37 - 00:41:40: 、あなたの家は 1250 平方フィートで、 00:41:42 - 00:41:44: この家の価格をどのように設定するかを知りたい 00:41:44 - 00:41:46: ので、このデータセットが与えられた場合にできることは 1 つ 00:41:46 - 00:41:51: です はそれに直線を当てはめると、 00:41:51 - 00:41:53: 推定できるので、垂直軸で 00:41:53 - 00:41:55: 読み取った値が価格になると予測できる 00:41:55 - 00:41:59: ため、 00:41:59 - 00:42:02: 教師あり学習では 00:42:02 - 00:42:07: 、情報 X とラベル Y を含むデータセットが与えられ、 00:42:07 - 00:42:10: 目標は学習することです a 00:42:10 - 00:42:14: から X t o 現在 00:42:15 - 00:42:16: 、データに直線を当てはめることは、おそらく最も単純 00:42:19 - 00:42:21: な学習アルゴリズムかもしれませんが、関数マッピング 00:42:25 - 00:42:28: を学習するためのマッピングを学習する方法はたくさんあると彼らが言っていることを考えると、最も単純な学習アルゴリズムの 1 つかもしれません。 00:42:30 - 00:42:33: 推定価格への入力サイズなので 00:42:33 - 00:42:34: 、代わりに二次関数を当てはめたいと思う 00:42:34 - 00:42:36: かもしれませんが、実際にはそれが実際に 00:42:36 - 00:42:38: はもう少し日付に 00:42:40 - 00:42:42: 合うかも 00:42:42 - 00:42:44: しれません. ' 00:42:44 - 00:42:48: 今から多くの時間をかけて説明し 00:42:48 - 00:42:51: 、さらにいくつかのことを定義するため 00:43:00 - 00:43:03: にもう少し説明します 00:43:03 - 00:43:07: これとは対照的に、これは 00:43:07 - 00:43:11: 別の種類の 00:43:11 - 00:43:12: 問題です。ある友人が 00:43:12 - 00:43:14: 取り組んでいた問題で、簡単に言うと、それ 00:43:14 - 00:43:17: は健康上の問題でした。 彼らは 00:43:17 - 00:43:20: 乳がんの乳房の腫瘍を見ていて 00:43:20 - 00:43:23: 、腫瘍が良性か悪性かを判断しようとしていた 00:43:25 - 00:43:27: ので、あなたが知っている腫瘍 00:43:27 - 00:43:31: は女性の乳房のERのしこりに役立ちます.それは 00:43:31 - 00:43:34: 悪性または癌性または良性である可能 00:43:34 - 00:43:36: 性があります. 00:43:36 - 00:43:40: 有害であるため、横軸 00:43:40 - 00:43:45: に腫瘍のサイズをプロットし、 00:43:45 - 00:43:48: 縦軸に悪性かどうかをプロットすると 00:43:48 - 00:43:52: 、悪性は有害な割合を意味し 00:43:52 - 00:43:56: 、一部の腫瘍は有害であり、一部はそうで 00:43:56 - 00:43:58: ないため、悪性かどうか 00:43:58 - 00:44:05: は2つだけです 値は 1 または 0 であり、その 00:44:05 - 00:44:13: ようなデータセットを持っている可能性があります。 00:44:13 - 00:44:17: これが与えられ 00:44:17 - 00:44:20: た場合、X から Y へのマッピングを学習できるので、新しい 00:44:20 - 00:44:23: 患者があなたのオフィスに足を踏み入れた場合、その患者 00:44:23 - 00:44:25: は診療所にいて、腫瘍のサイズ 00:44:25 - 00:44:28: は次のようになります。 これは学習 00:44:28 - 00:44:29: アルゴリズムで、この日から 00:44:29 - 00:44:31: 、このデータセットに基づいている可能性が高いことを理解できます 00:44:33 - 00:44:35: か?その腫瘍が悪性である可能性が高いように見える 00:44:35 - 00:44:43: ので、これは分類問題の例です. 00:44:49 - 00:44:52: 分類という用語は、ここで Y 00:44:52 - 00:44:54: が変数の離散数を取ることを指します。 00:44:54 - 00:44:57: したがって、回帰問題の場合、Y は 00:44:57 - 00:45:00: 実数です。技術的には、代わりに価格 00:45:00 - 00:45:01: を最も近いドル 00:45:01 - 00:45:03: に丸めることができると思います。したがって、価格は実際には実数ではありません。 00:45:07 - 00:45:09: 円周率の 100 万倍などの価格ではあり 00:45:09 - 00:45:12: ませんが、すべての実用的な 00:45:12 - 00:45:14: 目的で価格は連続しているため 00:45:14 - 00:45:16: 、住宅価格の予測 00:45:16 - 00:45:18: を回帰 00:45:20 - 00:45:22: 問題と呼びます。 00:45:22 - 00:45:26: K個の離散出力がある場合、 00:45:26 - 00:45:29: 腫瘍が悪性である可能性がある場合、または 00:45:29 - 00:45:31: 5つのタイプの癌があり 00:45:31 - 00:45:33: 、5つの可能な出力のうちの1つがある場合 00:45:34 - 00:45:40: 、出力が離散しているという分類の問題もあります 00:45:40 - 00:45:42: 別の方法を見つけたい このデータ セットを視覚化するために 00:45:45 - 00:45:48: 上に線を引いてみましょう。 00:45:48 - 00:45:51: 横軸のすべてのデータを線の上にマット化しますが、 00:45:56 - 00:46:09: シンボル ol を使用して、私が行ったことを明確に示したいと思います。 00:46:09 - 00:46:11: そのため、ポジティブな例とネガティブな例の 2 つのセットの例を取り上げました。 00:46:13 - 00:46:15: ポジティブな例は、この 1 つの 00:46:15 - 00:46:18: ネガティブな例ゼロでした。 00:46:18 - 00:46:20: これらの例をすべて取り上げて、それら 00:46:20 - 00:46:23: を 直線と 2 つの 00:46:23 - 00:46:26: 記号を使用しました 負の例を示すために OHS 00:46:26 - 00:46:27: を使用 00:46:27 - 00:46:29: し、正の例ではプロセスを使用 00:46:38 - 00:46:40: しています。 00:46:40 - 00:46:46: つまり、 00:46:46 - 00:46:49: これらの例の両方で、入力 X は 1 次元であり、ほとんどの機械学習アプリケーションが入力 X を処理するの 00:46:49 - 00:46:50: は 1 つの 00:46:50 - 00:46:53: 実数であり、 00:46:55 - 00:46:57: 多次元になることがわかります。 00:46:57 - 00:46:59: 1つの数字だけが与えられ、 00:46:59 - 00:47:02: 別の 00:47:05 - 00:47:07: 数字を予測するのではなく、別の数字を予測するために複数の機能または複数の数字が与えられることがよくあります。 00:47:07 - 00:47:10: たとえば、2つの 00:47:10 - 00:47:12: 救世主を使用して推定するのではなく、 00:47:12 - 00:47:15: 悪性腫瘍を開いて悪性腫瘍と良性 00:47:15 - 00:47:19: 腫瘍を比較すると、代わりに2つの機能 00:47:19 - 00:47:23: があり、1つは腫瘍サイズで、2つ目 00:47:23 - 00:47:27: は患者の年齢であり、データセットが与えられる 00:47:27 - 00:47:45: かもしれません多分私は座って、 00:47:45 - 00:47:49: そのように見えるデータセットを与えられ 00:47:49 - 00:47:53: ます タスクには 2 つの入力機能が与えられるため 00:47:53 - 00:47:56: 、2 次元ベクトルのようにわかっている X の腫瘍サイズと年齢 00:47:58 - 00:48:03: 与えられ 00:48:03 - 00:48:05: 、特定の腫瘍が悪性か良性かを予測するためにこれら 2 つの入力機能がトスに与えられる 00:48:05 - 00:48:06: ため、新しい患者 00:48:06 - 00:48:08: は診療所を歩き 00:48:08 - 00:48:11: 、 腫瘍の大きさと年齢がここにある 00:48:14 - 00:48:16: この患者の腫瘍はおそらく良性であることを知っていると結論付けてください。これ 00:48:17 - 00:48:19: は否定的な 00:48:19 - 00:48:23: 例です。来週学ぶことの1つ 00:48:25 - 00:48:29: さらに直線化できる学習アルゴリズムです。 00:48:29 - 00:48:30: 次のようなデータにします 00:48:31 - 00:48:33: 正負の例をいくつか 00:48:33 - 00:48:36: の穴と十字から分離するのと同じように、 00:48:36 - 00:48:37: 来週はロジスティック回帰について学びます 00:48:48 - 00:48:51: この例では、 00:48:55 - 00:48:56: 実際に乳がんの予測問題に取り組んでいる友人がいて、実際に働いていると言ったときに、2 つの入力フィーチャを含むデータセットを描画し 00:48:59 - 00:49:02: ました。 通常 00:49:02 - 00:49:03: 、1つまたは2つ以上の機能があり 00:49:05 - 00:49:07: 、ボードに正しくプロットできないほど多くの機能があるため 00:49:07 - 00:49:09: 、実際の乳がん予測の 00:49:09 - 00:49:11: 問題については、友人がこれに取り組んでおり、 00:49:11 - 00:49:13: 他の多くの機能を使用しています. 00:49:13 - 00:49:14: これらが何を意味するかについて心配する必要はありません 00:49:14 - 00:49:18: 私はあなたが知っていると思います 塊の厚さ 00:49:18 - 00:49:25: セルサイズの均一 00:49:25 - 00:49:32: 性 セル形状の均一性 Heejunでセルがどのよう 00:49:32 - 00:49:33: に同期する 00:49:33 - 00:49:35: か これらが何を意味するかについて心配する必要はありませんが 00:49:35 - 00:49:37: 、実際にこれを行っている場合 00:49:37 - 00:49:39: 実際の医療アプリケーションで 00:49:40 - 00:49:43: は、2 つだけでなく、より多くの機能を使用する可能性が高くなります。これ 00:49:43 - 00:49:44: は、実際にはこのデータを正しくプロットできないことを意味します。 00:49:44 - 00:49:46: 次元が高すぎて 00:49:46 - 00:49:48: プロットできません。 3 次元よりも高い場合は 00:49:48 - 00:49:49: 4 次元 00:49:49 - 00:49:51: が適切である可能性があります。これで、すべての 00:49:51 - 00:49:53: 機能が得られました。このデータをプロットするのは難しい 00:49:53 - 00:49:55: でしょうか。これについては、理論の学習ですぐに戻ってき 00:50:07 - 00:50:09: これらの 00:50:09 - 00:50:11: 比較的多数の機能を処理できる回帰アルゴリズムまたは分類アルゴリズムを構築する方法を学びます。学習 00:50:11 - 00:50:13: する最も魅力的な結果の 1 つは、サポート ベクター マシンと呼ば 00:50:13 - 00:50:17: れるアルゴリズムについても学ぶことです。 00:50:22 - 00:50:25: 10 または 1 億または 1000 万の入力機能です 00:50:25 - 00:50:29: が、無限の数の入力 00:50:29 - 00:50:31: 機能を正しく使用しているため 00:50:31 - 00:50:34: 、この例で患者の状態が 00:50:34 - 00:50:36: 1 つの数値として表される 00:50:36 - 00:50:39: かどうかを明確にしてください。 00:50:40 - 00:50:42: 患者の状態は 2 つの数値を使用して表さ 00:50:42 - 00:50:44: れます この特徴のリストを使用する場合、年齢で腫瘍の大きさ 00:50:53 - 00:50:59: 、無限次元ベクトルを使用して 00:50:59 - 00:51:03: 患者を表すことができるサポート ベクター マシンと呼ばれるアルゴリズムがあり 00:51:03 - 00:51:05: 、それをどのように処理し、コンピューターはどのようにし 00:51:05 - 00:51:06: て無限次元ベクトルを 00:51:06 - 00:51:09: 正しく保存できるのでしょうか。つまり、保存できるコンピューター メモリを知っているということです。 00:51:09 - 00:51:11: 1 つの女の子の数 2 つの 00:51:11 - 00:51:13: 実数ですが 00:51:14 - 00:51:16: 、メモリ 00:51:16 - 00:51:18: やプロセッサの速度などで実行しないと、コンピューターに無限の実数を保存 00:51:18 - 00:51:20: することはできません。 00:51:23 - 00:51:25: カーネルと呼ばれる 00:51:27 - 00:51:29: 無限に 00:51:30 - 00:51:32: リサの特徴 無限に長い 00:51:32 - 00:51:36: 特徴のリスト 想像できる特徴 00:51:36 - 00:51:38: の無限に長いリスト 患者を表す無限に長い数のリストが 00:51:40 - 00:51:41: あれば、多くのことをもたらす可能性があると想像できます 00:51:46 - 00:51:52: その患者に関する情報の 00:51:52 - 00:51:54: g そして 00:51:54 - 00:52:00: 、ビデオを再生させてください。 00:52:03 - 00:52:04: これが何を意味するのか、以前の手でそこにある教師付きの少し古い楽しい例をお見せします 00:52:04 - 00:52:08: が、教師付き学習の中心にあるの 00:52:10 - 00:52:14: トレーニング中にラベルと一緒に入力 X が与えられるという考えです。 00:52:14 - 00:52:16: Y とあなたは両方 00:52:16 - 00:52:18: を同時に与えられ、あなたの 00:52:18 - 00:52:21: 学習アルゴリズムの仕事はマッピングを 00:52:21 - 00:52:25: 見つけることです。新しい X が与えられると、それ 00:52:25 - 00:52:28: を最も適切な出力 Y にマッピングできるようになるため、これは 00:52:28 - 00:52:31: ディーンによって作成された非常に古いビデオです。 00:52:31 - 00:52:32: 自動運転に教師あり学習を使用することで長い間知られている Pomerleau は、 00:52:37 - 00:52:39: で Toms の運転の技術を節約することはできなくなりましたが、 00:52:39 - 00:52:42: 実際には非常にうまく機能し 00:52:47 - 00:52:50: これが原因で、クラスの終わりまでに 00:52:50 - 00:52:51: 、ここに表示されて 00:52:51 - 00:52:52: いるものよりもはるかに効果的な学習アルゴリズムを実際に構築しまし 00:52:52 - 00:52:54: たが、このアプリケーションを見てみましょう。 00:52:59 - 00:53:01: 音量を上げ 00:53:01 - 00:53:04: てください。 バレーボール 00:53:04 - 00:53:13: そうですね わかりました 00:53:13 - 00:53:17: ナレーションで説明します 00:53:21 - 00:53:24: 何年も前にカーネギー メロン大学で製造されたこの 00:53:27 - 00:53:30: 車両を運転するために人工ニューラル ネットワークを使用します 00:53:30 - 00:53:34: 1 秒間に 10 回考える 00:53:34 - 00:53:37: と、車両の前方の画像がデジタル化 00:53:37 - 00:53:40: されます。これは前面カメラで撮影された写真で 00:53:44 - 00:53:46: あり、人間が運転している間に車のラベル付きデータを収集するために、次の 00:53:49 - 00:53:52: ような両方の画像を記録します。 ここのシーンと人間によって 00:53:52 - 00:53:53: 選択されたステアリング方向として、 00:53:53 - 00:53:56: ここの下部にあるのは 00:53:56 - 00:53:58: グレースケールに変換された低 00:53:58 - 00:54:02: 解像度の画像です。上部にあるこれを少しポーズさせてください。 00:54:02 - 00:54:07: これはドライバーの方向です。 00:54:07 - 00:54:08: 電話の種類はぼやけていますが このテキサスの 00:54:08 - 00:54:11: ドライバーの方向 これが Y ラベル 00:54:11 - 00:54:15: 人間のドライバーが選択 00:54:15 - 00:54:18: したラベル Y この白い塊のこの白いバーの位置は 00:54:18 - 00:54:21: 、人間がどの 00:54:21 - 00:54:24: ように車を操縦することを選択したかを示しています 00:54:24 - 00:54:25: 画像 白い塊は 00:54:26 - 00:54:27: 中央の少し左にあるので、 00:54:27 - 00:54:29: あなたが知っている人間は少し左にハンドルを切ってい 00:54:29 - 00:54:33: ます この2行目 00:54:33 - 00:54:35: はニューラルネットワークの出力であり、 00:54:35 - 00:54:38: 最初はニューラルネットワークは 00:54:38 - 00:54:39: 運転方法を知りません だから、あなたが知っ 00:54:39 - 00:54:42: ていると言ったところならどこでもこの白いシュミアを出力しているだけ 00:54:42 - 00:54:43: です私は知らない私は左右中央を運転しています私は 00:54:44 - 00:54:46: 知らないので、この灰色の 00:54:46 - 00:54:49: ぼかしをどこにでも置くのはやめて、アルゴリズム 00:54:49 - 00:54:52: が逆伝播学習アルゴリズムまたは勾配降下法を使用して学習するので、 00:54:56 - 00:54:57: 今週の水曜日に実際に勾配降下法について学び 00:54:57 - 00:55:00: ます。ニューラル ネットワークの出力 00:55:02 - 00:55:06: この白いぼやけがますます少なくなることがわかりますが、 00:55:06 - 00:55:10: よりシャープになり始め 00:55:10 - 00:55:14: 、人間が選択した運転 00:55:16 - 00:55:20: し始めるので、例があります。 00:55:20 - 00:55:22: 人間の 00:55:22 - 00:55:25: 運転手は入力 X と出力 00:55:25 - 00:55:29: y を示すため、教師あり学習 00:55:31 - 00:55:34: の 学習アルゴリズムがあなたを学習した後、 00:55:34 - 00:55:39: 彼は 00:55:39 - 00:55:41: ボタンを押しますあなたが知っているステアリングから手を離すと、 00:55:41 - 00:55:45: このネットワークを使用して 00:55:45 - 00:55:48: 自分自身を正しく運転します 00:55:48 - 00:55:51: メモの前で画像をデジタル化し、この画像を取得 00:55:51 - 00:55:53: して学習に渡します 00:55:53 - 00:55:54: トレーニングされたニューラル ネットワークを介したアルゴリズムにより 00:55:54 - 00:55:56: 、ニューラル ネットワークに 00:55:56 - 00:55:59: ステアリングの方向を選択させ 00:55:59 - 00:56:02: 、小さなモーターを使用してホイールを回転させます。 00:56:02 - 00:56:05: これは、 00:56:05 - 00:56:07: 2 つの別々のモデルをトレーニングした少し高度なバージョンです。 01:09:48 - 01:09:50: これは 00:56:16 - 00:56:18: 2 車線の道路です。これは 4 車線の道路です 00:56:18 - 00:56:21: 。アービトレーターは 00:56:24 - 00:56:26: 、4 車線の道路モデルの 2 車線がどの車線であるかを決定しようとする別のアルゴリズムです。 00:56:26 - 00:56:28: 特定の状況にはより適切な方が適している 00:56:28 - 00:56:31: ため、Alvin が 00:56:31 - 00:56:34: 世界または 2 車線の道路という名前の 1 つの道路を破壊している 00:56:36 - 00:56:39: に、ここの 1 車線の道路から交差点に向かって運転していると言っ 00:56:51 - 00:56:54: ています。 アルゴリズムが認識するのは 00:56:58 - 00:57:00: 、今日の 1 つの 00:57:00 - 00:57:02: 車線またはネットワークから 2 つの車線のネットワークへの 00:57:18 - 00:57:21: だと思います。 00:57:40 - 00:57:42: これは、教師あり学習を使用して 00:57:44 - 00:57:46: 、車の前にあるものを入力として取得し、ステアリングの方向を決定しているだけです。 00:57:46 - 00:57:48: これは、今日の 00:57:48 - 00:57:50: 自動運転車の製造方法とは異なり 00:57:50 - 00:57:52: ますが、ご存知のとおり、 00:57:52 - 00:57:55: 限られたコンテキスト 00:57:55 - 00:57:58: でいくつかの 00:57:58 - 00:58:00: ことを行うことができ、数週間以内に実際にこれよりも洗練されたものを構築できると思います 00:58:05 - 00:58:10: 教師あり学習の後、この 00:58:10 - 00:58:12: クラスで少し時間を 00:58:12 - 00:58:14: かけて機械学習戦略について話します. 00:58:14 - 00:58:17: クラスの釘では、これを学習理論として注釈を付けていると思います 00:58:17 - 00:58:19: が、それが 00:58:19 - 00:58:21: 意味することは、学習アルゴリズムを効果的に適用するためのツールを提供したいということです。 00:58:26 - 00:58:30: あなたは多くのことを知っていることを知ってい 00:58:30 - 00:58:34: ます.ええと、私が亡くなった企業よりも多くの優れたテクノロジー企業を 00:58:34 - 00:58:35: 何年にもわたって絶えず訪問してきたことを知ってもらえて幸運だったと思います。 00:58:43 - 00:58:45: ただの家の友達ゾーン 00:58:45 - 00:58:48: 私は太陽のさまざまなテクノロジー企業を訪問 00:58:48 - 00:58:50: します。その製品はあなたの携帯電話にインストールされていると確信してい 00:58:50 - 00:58:52: ますが、テクノロジー企業を頻繁に訪問 00:58:55 - 00:58:56: します。 私は彼らを助けること 00:59:02 - 00:59:04: ができます.2つの異なるチームがまったく同じ学習アルゴリズムを適用する方法の有効性には大きな違いがあることがわかります. 00:59:14 - 00:59:16: 最高のテクノロジー企業のいくつかは、いくつか 00:59:16 - 00:59:19: のエリート AI 企業に匹敵 00:59:19 - 00:59:22: します。チームと話をすると、 00:59:22 - 00:59:23: 彼らは 00:59:23 - 00:59:25: 6 か月間取り組んできたことについて話 00:59:25 - 00:59:27: してくれ 00:59:27 - 00:59:31: ます。 データとそれを聞く アルバムはうまく機能していませんでしたし 00:59:31 - 00:59:33: 、時には 00:59:33 - 00:59:34: 彼らがやっていることのように見えることもありました 00:59:36 - 00:59:38: .6ヶ月前に 00:59:38 - 00:59:42: 私はあなたに言ったかもしれませんが、不承認は決してうまくいきません. 00:59:44 - 00:59:46: 実践者は非常に戦略 00:59:46 - 00:59:49: 的です。つまり 00:59:49 - 00:59:51: 、機械学習プロジェクトに取り組む時期を決定するスキル 00:59:51 - 00:59:53: は、多くの決定を下す必要があることを知っていることを意味します。 00:59:54 - 00:59:56: より多くのデータを収集しますか? 00:59:56 - 00:59:59: 別の学習アルゴリズムを試しますか? 00:59:59 - 01:00:00: ラーニング オーブン 01:00:00 - 01:00:02: をより長くトレーニングするか、より多くのデータを収集する場合、収集する 01:00:02 - 01:00:04: データの種類、またはニューラル ネットワーク 01:00:04 - 01:00:06: を使用するこれらすべてのアーキテクチャの選択 01:00:06 - 01:00:08: について、どのベクトル マシン、 01:00:08 - 01:00:09: どれが回帰であるか、どれを 01:00:10 - 01:00:12: 、しかし決定する必要があることはたくさんあります。 01:00:12 - 01:00:15: これらの学習アルゴリズムを構築する際 01:00:18 - 01:00:21: に、私たちの教え方に非常にユニークなことの 1 つは 01:00:23 - 01:00:27: 、サバティカル エンジニアとして機械学習をより体系的に推進できるよう支援したいということです。 01:00:27 - 01:00:29: これにより、ある 01:00:29 - 01:00:30: 日機械学習 01:00:30 - 01:00:33: プロジェクトに取り組んだときに、次に何をすべきかを効率的に把握し 01:00:34 - 01:00:38: 、時にはあなたが知っているソフトウェア エンジニアリングにどのように例えられるかを 01:00:41 - 01:00:45: 知ることができます。私は何年も前に、 01:00:45 - 01:00:48: コードをコンパイルしてデバッグする友人がいました。 01:00:48 - 01:00:51: そして、この友人は 01:00:51 - 01:00:54: 、あなたが知っているこれらすべての構文エラーを正しく見て、 01:00:54 - 01:00:56: プラスのコンパイラ出力を見 01:00:56 - 01:00:58: て、エラーを排除する最善の方法 01:00:58 - 01:01:00: は、構文エラーのあるコードのすべての行を削除する 01:01:02 - 01:01:03: ことであると考えました。 01:01:03 - 01:01:07: うまくいかない 01:01:07 - 01:01:09: それをやり始めるよう 01:01:11 - 01:01:13: 説得するのにしばらく 01:01:15 - 01:01:19: 時間がかかった 01:01:19 - 01:01:20: 学習アルゴリズムのデバッグに取り掛かる 01:01:20 - 01:01:22: ことは、効果的な学習システムを 01:01:22 - 01:01:25: どれだけ迅速に構築できるかという効率に大きな影響を与えます。 01:01:25 - 01:01:27: 私はこれ 01:01:30 - 01:01:33: 、学習をアーバンにするこのプロセスが多すぎたと思います。 の 01:01:33 - 01:01:35: 仕事は黒魔術のような 01:01:35 - 01:01:37: プロセスであり 01:01:37 - 01:01:40: 、何十年にもわたって知っているので、何かを実行し 01:01:40 - 01:01:41: て、なぜうまくいかないのかがわからないとき 01:01:41 - 01:01:43: 、私は自分のしていることを嫌い、ああ、 01:01:43 - 01:01:44: そうするだろうと言う 01:01:44 - 01:01:47: 彼は非常に経験豊富なのでうまく 01:01:47 - 01:01:49: いきますが、私たち 01:01:49 - 01:01:50: が機械学習の分野でやろうとしている 01:01:50 - 01:01:53: ことは、それを黒魔術の部族の 01:01:53 - 01:01:55: 知識経験に基づくものから 01:01:55 - 01:01:58: 体系的なエンジニアリングプロセス 01:01:58 - 01:02:01: に進化させることだと思います. 01:02:01 - 01:02:03: 機械学習戦略について話す、または 01:02:03 - 01:02:05: 学習理論について話す 戦略を立てる方法についてのツールを提供するために疑おうとする 01:02:08 - 01:02:11: ので、どのように自分自身をどのように行うかが非常に効率的になり 01:02:14 - 01:02:16: 、効果的な学習システムを構築する 01:02:16 - 01:02:18: ためにチームをどのように導くことができるか 最適化コードを正しく使用すれば、何が有望ではないかを比較的迅速に理解できた可能性があるいくつかの方向性に6か月を浪費する 01:02:18 - 01:02:20: ことを知っている人々の1人になってほしく 01:02:27 - 01:02:30: ません。 01:02:30 - 01:02:32: コードの 01:02:32 - 01:02:36: 実行を高速化する 01:02:36 - 01:02:39: 経験の少ないソフトウェア エンジニアは 01:02:39 - 01:02:41: 、コードを最適化してコードを最適化し、コードを 01:02:41 - 01:02:42: 高速化しようとすることを知った場合は教えないでください 01:02:42 - 01:02:44: 。C++ とコードを 70 か何かで取りましょう。 01:02:44 - 01:02:46: ただし、経験豊富な人 01:02:46 - 01:02:48: はプロファイラーを実行します。 01:02:48 - 01:02:50: コードのどの部分が実際 01:02:50 - 01:02:51: に一晩中あるかを理解しようとし、それを 01:02:51 - 01:02:54: 変更することに集中するため、この四半期にやりたいことの 1 つ 01:02:58 - 01:02:59: これらのより体系的なエンジニアリングの 01:03:05 - 01:03:08: 私はこれを実際に書いているので 01:03:10 - 01:03:12: 、あなたの名前でマシンがオンになっているのを聞いた人は 01:03:12 - 01:03:15: 何人いますか、興味深いのはほんの数人です 01:03:19 - 01:03:26: 。 機械学習の 01:03:26 - 01:03:27: システム エンジニアリングの原則を体系化するために本を書いてい 01:03:29 - 01:03:33: ます。そうであれば 01:03:33 - 01:03:35: 、本の無料ドラフト コピーが必要な場合は、 01:03:35 - 01:03:37: ここでメーリング リストにサインアップしてください。 01:03:37 - 01:03:39: の あなたが知って 01:03:39 - 01:03:41: いる本を無料で手に入れたい場合は、 01:03:43 - 01:03:46: このウェブサイトにアクセスしてください。あなたの 01:03:46 - 01:03:48: 電子メールアドレスを入力してください。ウェブサイトに 01:03:48 - 01:03:49: は、本のジェリーコピーと書かれていました。 01:03:49 - 01:03:50: インタビューの 01:03:50 - 01:03:55: 原則についても少し説明します。 ですから、 01:03:55 - 01:03:57: 最初の目的の機械学習 2 番目の 01:03:57 - 01:04:02: 主題の学習理論、そして 3 番目の 01:04:02 - 01:04:04: 主要な主題はディープ 01:04:04 - 01:04:07: ラーニングです。 01:04:07 - 01:04:09: 機械学習には多くのツールがあり、 01:04:09 - 01:04:10: それらの多くは学ぶ価値があることを知っています。 01:04:12 - 01:04:14: 多くの異なるアプリケーションでご存じの学習ですが 01:04:14 - 01:04:16: 、機械学習のサブセットの 1 つが 01:04:17 - 01:04:19: 非常に急速に進歩しているため、現在非常に 01:04:19 - 01:04:21: 注目されています。それがディープ ラーニングです。そのため 01:04:21 - 01:04:23: 、ディープ ラーニングについて少し時間をかけて 01:04:25 - 01:04:28: 説明し、彼らが方法の基本を理解できるようにします。 ネットワークのトレーニング 01:04:28 - 01:04:32: も同様ですが、ええと、2:29 はすべて有用 01:04:32 - 01:04:34: なより広範な out ルールのセットをカバーしていると思い 01:04:34 - 01:04:37: ます su-30 を参照してください。 01:04:42 - 01:04:45: ディープ ラーニング以外は、 01:04:45 - 01:04:47: 新しいニューラル ネットワークをディープ ラーニングした後 01:04:47 - 01:04:51: 、もう 1 つは、これから 01:04:51 - 01:04:52: 取り上げる 5 つの主要なトピックの両方の秋が 01:04:52 - 01:04:56: 教師なし学習になるため、1 つ 01:04:56 - 01:05:06: が教師なし学習である 01:05:06 - 01:05:10: ため、私がこのような絵を描いているのを見たことがあります。 01:05:12 - 01:05:14: 腫瘍悪性良性問題のような分類問題です. 01:05:16 - 01:05:18: 分類問題であり,これは 01:05:18 - 01:05:19: 教師あり学習の問題です.X 01:05:19 - 01:05:21: からYへの関数マッピングを 01:05:21 - 01:05:25: 学習する必要がある 01:05:25 - 01:05:28: ためです.データセットを与えると,教師なし学習になります. このように 01:05:28 - 01:05:31: ラベルなしで入力 X と理由を入力するだけ 01:05:35 - 01:05:36: で、このデータで興味深いものを見つけるように求められます。このデータの 01:05:36 - 01:05:37: 興味深い構造を知っていることを理解 01:05:37 - 01:05:41: すると、この 01:05:41 - 01:05:42: データセットには 2 つのクラスターがあるように見えます。 01:05:42 - 01:05:45: そして、 01:05:46 - 01:05:49: k-means クラスタリングと呼ばれる教師なし学習アルゴリズム 01:05:49 - 01:05:53: は、データの他の例でこの構造を発見し 01:05:55 - 01:05:57: 実際、Google ニュースは非常に 01:05:57 - 01:05:59: 興味深いウェブサイトです。 01:05:59 - 01:06:01: 最新のニュースを検索するために時々使用しています。例は 1 つ 01:06:01 - 01:06:04: しかありませんが、Google ニュースは毎日 01:06:11 - 01:06:13: 、インターネット上の何千、何万ものニュース記事をクロールまたは読み取り、適切なグループにまとめてい 01:06:13 - 01:06:15: ます。 たとえば 01:06:15 - 01:06:19: 、DPP に関する一連の記事 01:06:19 - 01:06:22: があり、さまざまなレポーターによって書かれた多くの記事 01:06:22 - 01:06:24: をまとめてグループ化し 01:06:24 - 01:06:26: ているため 01:06:26 - 01:06:32: 、BP マコンドが 01:06:32 - 01:06:34: これが CNN の記事であるとよく書いていることを理解できます。 全 01:06:34 - 01:06:36: 世界にまだガーディアンの記事 01:06:37 - 01:06:40: があり、 01:06:40 - 01:06:42: これらのさまざまな新しいソースを取得 01:06:42 - 01:06:44: して、これらがすべて 01:06:44 - 01:06:50: 同じことについての話であることを理解するクラスタリングアルゴリズムのこの例と、 01:06:50 - 01:06:52: データを取得して何を理解するだけのクラスタリングの他の例です。 01:06:52 - 01:06:56: グループは一緒に属してい 01:06:56 - 01:07:00: ます 遺伝データに関するすべての作業 これは、 01:07:03 - 01:07:07: 私たちが与えている遺伝的マイクロ波ラジエーターの視覚化です 01:07:07 - 01:07:09: 個人をさまざまな特性のさまざまな 01:07:09 - 01:07:12: タイプの個人に 01:07:16 - 01:07:18: グループ化するか、このタイプのデータをグループ化するクラスタリング アルゴリズムを 01:07:18 - 01:07:21: 使用して、コンピューティング クラスターを編成します。 01:07:29 - 01:07:31: Facebookやその他のソーシャルネットワークを調べて、 01:07:34 - 01:07:37: ソーシャルネットワークまたは市場セグメンテーション内のまとまりのあるコミュニティである友人のグループを把握します. 01:11:24 - 01:11:25: 実際に 01:07:39 - 01:07:41: 私が一緒に働いた多くの企業は、 01:07:41 - 01:07:43: 顧客データベースを見て、ユーザーをまとめてクラスター化する 01:07:43 - 01:07:45: ので、あなたは言うことができます. 01:07:45 - 01:07:47: あなたが知っている4つのタイプのユーザーのように見えます 01:07:47 - 01:07:50: が、自分自身を成長させようとしている若い専門家がいるように見え 01:07:52 - 01:07:55: ます。彼らはご存知のサッカー 01:07:55 - 01:07:57: ママとサッカーパパです。 01:08:02 - 01:08:04: 実際、何年も前に友人の 01:08:04 - 01:08:08: アンドリュー・ムーアがこのタイプのデータを使用していました 01:08:08 - 01:08:10: 天文データ分析グループの 01:08:10 - 01:08:18: 銀河に関する質問 ああ 01:08:18 - 01:08:20: 、クラスタリングがそうではないことを知っているよりもほとんど悪い 01:08:20 - 01:08:22: だけでなく、私にもたらされた学習 01:08:22 - 01:08:23: は、ラベル付けされていないデータを使用するという概念である 01:08:23 - 01:08:26: ため、Xだけで 01:08:26 - 01:08:30: 、それについて興味深いことを正しく見つけることです。たとえば、実際に 01:08:30 - 01:08:34: ここで撮影します これはすべての 01:08:34 - 01:08:36: オーディオで機能するとは限りません クラスの時間の後半にこれを行い 01:08:36 - 01:08:39: ます おそらく私は保存し 01:08:46 - 01:08:48: 後でこれを行う 01:08:48 - 01:08:51: と思います 01:08:52 - 01:08:54: はカクテル パーティーの問題です。 01:08:56 - 01:08:58: すべての作業をこのラップトップで処理できるように 01:08:58 - 01:09:01: なったら、デモを試みます。部屋が騒がしく、部屋に 01:09:01 - 01:09:03: 複数のマイク 01:09:03 - 01:09:05: を設置すると、通話のたびに声が重なって 01:09:05 - 01:09:07: ラベルがなくなるという問題があります。 リーダーと複数の 01:09:10 - 01:09:13: たくさんの人が話している部屋にあるマイクの配列 人々の声を 01:09:13 - 01:09:14: アルゴリズムで分離するにはどうすればよいでしょうか。 01:09:18 - 01:09:20: ラベルがないため、教師あり学習の問題です。 01:09:20 - 01:09:22: 部屋にマイクを置いて、 01:09:24 - 01:09:25: 複数のユタ州の声を同時に記録し 01:09:25 - 01:09:28: 、人々の声と次のプロの声を分離しようとはしていないため、 01:09:30 - 01:09:33: さまざまな人々の声を記録します。 後で行うのは、5 人が話していることを知っている場合、 01:09:36 - 01:09:38: そこにある各マイクが 5 人の 01:09:38 - 01:09:40: 声を重複させます。これ 01:09:40 - 01:09:42: は、各マイクが同時に 5 人であることがわかっている 01:09:44 - 01:09:46: ためです。これらの声をアルゴリズムで分離して、 01:09:46 - 01:09:48: 録音をクリーンアップできないようにするにはどうすればよいでしょうか。 01:09:50 - 01:09:52: カクテル パーティー問題 01:09:52 - 01:09:53: と呼ばれ、これを行うために使用されたアルゴリズムは ICA 01:09:53 - 01:09:55: 独立成分分析と呼ばれ 01:09:57 - 01:10:02: 、最新の宿題の演習の 1 つに実装されているものであり、学習 01:10:02 - 01:10:03: を行っている他の例があります。 01:10:03 - 01:10:06: 同様に、インターネットには 01:10:06 - 01:10:08: ラベルのないテキストが大量にあり、後で 01:10:08 - 01:10:10: インターネットからデータを吸い取っただけで、 01:10:10 - 01:10:13: 必ずしもラベルはありませんが、できますか 01:10:13 - 01:10:15: 言語について興味深いことを学ぶ 01:10:15 - 01:10:17: 何を理解するかはわかりません 01:10:17 - 01:10:20: 最近最もよく引用された結果の 1 つは、 01:10:20 - 01:10:22: あなたが知っている類推を学ぶこと 01:10:22 - 01:10:26: でした。 01:10:32 - 01:10:34: そのようなエネルギーを学ぶことと、インターネット上のテキストだけから 01:10:34 - 01:10:36: 、ラベルのないデータからそのような類推を学ぶことができると言う人 01:10:37 - 01:10:40: もいます。教師なし学習もあります。まあ 01:10:40 - 01:10:46: 、そうそう目の学習の後、ああ、 01:10:46 - 01:10:47: 私は驚くほど稼いでいるので、 01:10:47 - 01:10:49: 機械学習は非常に重要です 01:10:49 - 01:10:52: 最近の機械学習によって生み出された経済的価値の波のほとんどは、教師あり学習によるものであることが判明しましたが 01:10:56 - 01:10:59: 、教師なし学習にも重要なユースケースがあるため 01:11:01 - 01:11:04: 、仕事で時折使用しています。 01:11:06 - 01:11:09: 研究、そして最後の 01:11:09 - 01:11:11: トピックでは、カバーする 5 つのトピックを見つけるので、 01:11:11 - 01:11:13: 教師あり学習の機械 01:11:13 - 01:11:15: 学習戦略について話し 01:11:15 - 01:11:17: ます 修正された学習、そして 5 01:11:17 - 01:11:18: つ目は強化学習 01:11:18 - 01:11:22: です。たとえば 01:11:22 - 01:11:24: 、このヘリコプターでスタンフォード大学の鍵を渡します。このヘリコプターは 01:11:25 - 01:11:27: 私のオフィスに座っています。それを取り除く方法を見つけようとしています。 01:11:27 - 01:11:29: 正しく飛行させるための準備が整った 01:11:29 - 01:11:32: プログラムが表示され 01:11:32 - 01:11:37: ます。どうすればそれを行うことができるのでしょうか。これは 01:11:37 - 01:11:41: ヘリコプターが飛行しているビデオです。オーディオ 01:11:41 - 01:11:42: はヘリコプターのノイズが多いだけなので、重要ではありません 01:11:42 - 01:11:45: が、ビデオをズームアウトして 01:11:45 - 01:11:47: 確認できます。 空で正しく反応し 01:11:47 - 01:11:50: ますが、だからあなたはええから学習を使うことができます. 01:12:02 - 01:12:04: これを行うための良い方法は 01:12:04 - 01:12:05: 強化学習による 01:12:05 - 01:12:07: ものです。強化学習と 01:12:07 - 01:12:09: は何かというと 01:12:09 - 01:12:11: 、ヘリコプターを適切に飛ばす最適な方法を 01:12:13 - 01:12:16: 誰も知らないことがわかります 01:12:18 - 01:12:20: 操縦桿を動かして 01:12:20 - 01:12:22: ヘリコプターを飛ばす方法 01:12:22 - 01:12:25: は何ですか? ヘリコプターにあなたが考えていることを何でもさせます。 01:12:25 - 01:12:27: 私たちは犬を正しく訓練します。 01:12:29 - 01:12:32: ペットの犬を飼う ペットの 01:12:32 - 01:12:34: 猫が 01:12:34 - 01:12:36: 魅力的になる前に 01:12:36 - 01:12:39: 、私は子供の頃にペットの犬を飼っていて 01:12:39 - 01:12:41: 、私の家族 01:12:41 - 01:12:43: は犬を訓練するのが私の仕事でした。 01:12:45 - 01:12:47: ヘイズがうまくいっているときはいつでもあなたは 01:12:47 - 01:12:50: 良い犬に行き、それが悪いことをすると 01:12:50 - 01:12:51: 悪い犬 01:12:51 - 01:12:54: になり、そして時間の経過とともに犬は良いことをもっと行うことを学び 01:12:56 - 01:12:58: 、悪い犬のことを恐れます。 01:12:58 - 01:12:59: 強化学習は少し似ています 01:13:01 - 01:13:03: 私はヘリコプターを飛ばすひどい方法がわからないので 01:13:03 - 01:13:05: 、ヘリコプターがやりたいことを何でもさせて 01:13:11 - 01:13:12: ください。 01:13:12 - 01:13:15: ヘリコプターが墜落 01:13:15 - 01:13:18: して故障したとき elicopter とそれを制御する方法 01:13:18 - 01:13:20: を理解するのは強化学習アルゴリズムの仕事です。 01:13:21 - 01:13:23: これにより、良いヘリコプターのことをより多く得ることができ、 01:13:25 - 01:13:29: いくつかの悪いことを恐れることができます。 01:13:38 - 01:13:40: 繰り返しになりますが、このようなロボットを考えると 01:13:40 - 01:13:42: 、プログラマーが実際にこのようなロボットをロリッチの関節としてどのように知っているかはわかりません。 01:13:45 - 01:13:46: ようなロボットがより多くの障害物を登るにはどうすればよいのでしょうか。 01:13:48 - 01:13:52: これは実際にはロボット犬 01:13:52 - 01:13:56: です。 実際には良いドッグドッグと言うことができますが 01:13:56 - 01:13:58: 、報酬シグナルと呼ばれるこれらのシグナルを与える 01:13:58 - 01:14:01: ことで、学習アルゴリズム 01:14:01 - 01:14:03: がそれ自体で 01:14:03 - 01:14:07: 報酬を最適化する方法を見つけ出し、これらの 01:14:07 - 01:14:10: タイプの障害を乗り越えることができます。 01:14:10 - 01:14:12: 最近最も有名なアプリケーションは 01:14:12 - 01:14:14: 学生向けです 学習はゲームをプレイするために起こった 01:14:14 - 01:14:16: Atari ゲームをプレイしたり 01:14:16 - 01:14:20: 、金のゲームをプレイしたりすることはできる 01:14:20 - 01:14:23: alphago ええと IIIi ええと、ゲームプレイは 01:14:23 - 01:14:26: いくつかの注目すべきスタントを注目に値する 01:14:26 - 01:14:29: PR にしたと思いますが、私は 彼らの補強や何かがそれをロボット工学のアプリケーションにする統合についても同じように興奮しているか、あるいは 01:14:29 - 01:14:31: さらに興奮している 01:14:33 - 01:14:35: ので、ゲーム 01:14:38 - 01:14:40: をプレイするために補強が素晴らしいことが証明されている 01:14:48 - 01:14:53: そのようなことで、これらすべてのことについて学ぶの 01:14:53 - 01:14:56: は今日の最後のことです。クラスの 01:14:56 - 01:15:00: 人たちに、 01:15:00 - 01:15:02: 電話プロジェクトのパートナーや研究グループに電話して友達を作るように教えてください。 01:15:04 - 01:15:06: 質問がある場合は、広場の犬を知っています 01:15:06 - 01:15:07: か? 質問 01:15:07 - 01:15:10: 他の人が質問に答えるのを手伝いましょう。それで 01:15:10 - 01:15:12: 今日は休憩しましょう。水曜日にお会いできるのを楽しみにし 01:15:12 - 01:15:14: ています

Stanford Online

※本サイトに掲載されているチャンネル情報や動画情報はYouTube公式のAPIを使って取得・表示しています。

Timetable

動画タイムテーブル

動画数:2418件