国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

斯坦福大學公開課:機器學習課程

2015-04-02 18:29
智能制造 2015年3期
關鍵詞:貝葉斯線性機器

隨著“智能制造”概念的普及,人工智能技術的研究與應用變的越來越被人們關注。人工智能在制造中的運用已經(jīng)成為實現(xiàn)制造的知識化、自動化、柔性化以實現(xiàn)對市場的快速響應的關鍵。機器學習無疑是最有希望實現(xiàn)這個“智能”的研究方向之一。斯坦福大學的“Stanford Engineering Everywhere”免費提供學校里最受歡迎的工科課程給全世界的學生和教育工作者。得益于這個項目,我們有機會和全世界站在同一個數(shù)量級的知識起跑線上。

課程共20集,網(wǎng)易公開課已經(jīng)全部翻譯完成。講師:Andrew Ng。

[第 1集 ]機器學習的動機與應用

簡介:機器學習的動機與應用、Logistic類、機器學習的定義、監(jiān)督學習概觀、學習理論概述、非監(jiān)督學習概述和強化學習概述。

[第2集]監(jiān)督學習應用

簡介:監(jiān)督學習應用 ——自主推導,ALVINN系統(tǒng),線性回歸,梯度下降,組梯度下降,隨機梯度下降,標準方程推導。

[第 3集 ]欠擬合與過擬合的概念

簡介:欠擬合與過擬合的概念,參數(shù)化及非參數(shù)化算法概念,局部加權回歸,對于線性模型的概率解釋,Logistic回歸,感知器。

[第4集]牛頓方法

簡介:介紹了牛頓方法,可以代替梯度上升算法用來計算函數(shù)的最大值;之后以高斯分布和伯努利分布為例介紹了指數(shù)分布函數(shù)族;最后以指數(shù)分布函數(shù)族為基礎,引出了廣義線性模型,可以通過指定概率分布直接推導出模型。

[第5集]生成學習算法

簡介:一類新的學習算法——生成學習算法,并詳細地講解了該算法的一個例子:高斯判別分析;之后對生成學習算法與之前的判別學習算法進行了對比;最后介紹了一個適合對文本進行分類的算法——樸素貝葉斯算法,并結合該算法講述了一種常用的平滑技術——Laplace平滑。

[第 6集 ]樸素貝葉斯算法

簡介:先介紹了兩種樸素貝葉斯算法的事件模型;之后介紹了神經(jīng)網(wǎng)絡算法;在最后介紹了兩個重要的概念:函數(shù)間隔和幾何間隔?;谶@兩個概念提出了一個線性分類算法:最大間隔分類器算法。該算法用于引出一個非常重要的非線性分類算法:支持向量機。

[第 7集 ]最優(yōu)間隔分類器問題

簡介:首先提出了原始的優(yōu)化問題:最優(yōu)間隔分類器問題;之后介紹了對偶問題的概念和 KKT條件;基于原始優(yōu)化問題的對偶問題的分析,介紹了 SVM算法;最后對 SVM算法進行了評價,以引出下節(jié)課對核方法的介紹。

[第 8集 ]順序最小優(yōu)化算法

簡介:核的概念——它在 SVM以及許多學習算法中都有重要的應用;之后介紹了 l1 norm軟間隔 SVM——它是一種 SVM的變化形式,可以處理非線性可分隔的數(shù)據(jù);最后介紹了 SMO算法——一種高效的可以解決 SVM優(yōu)化問題的算法。

[第 9集 ]經(jīng)驗風險最小化

簡介:主要介紹了模型選擇中的一種常見現(xiàn)象——偏差方差權衡。為了解釋該概念,首先介紹了兩個重要的引理——聯(lián)合界引理和 Hoeffding不等式;之后定義了兩個重要的概念——訓練誤差和一般誤差,并提出了一種簡化的機器學習算法模型——經(jīng)驗風險最小化(ERM);最后基于這些概念對 ERM結果的理論上界進行了證明,并基于上界分析對偏差方差權衡進行了解釋。

[第10集]特征選擇

簡介:VC維的概念——該概念能夠?qū)㈥P于ERM一般誤差的界的結論推廣到無限假設類的情形;模型選擇問題——具體介紹了交叉驗證方法以及幾種變形;特征選擇問題——具體介紹了兩類方法:封裝特征選擇和過濾特征選擇。

[第 11集 ]貝葉斯統(tǒng)計正則化

簡介:貝葉斯統(tǒng)計和規(guī)范化;簡單介紹了在線學習的概念;機器學習算法設計中的問題診斷技巧;兩種分析技巧:誤差分析與銷蝕分析;兩種應用機器學習算法的方式與適用場景。

[第 12集 ] K-means算法

簡介:無監(jiān)督學習的內(nèi)容。首先介紹了 k-means聚類算法;混合高斯模型,它是最大期望算法(EM)的一種特例;引入了 Jesen不等式,利用 Jesen不等式引出了 EM算法的一般形式。

[第 13集 ]高斯混合模型

簡介:對混合高斯模型在 EM算法下的結論進行了推導,并且介紹了 EM算法在混合貝葉斯模型中的應用。最后介紹了因子分析算法。該算法可以進行高維數(shù)據(jù)下樣本數(shù)目較少的情況下的模型擬合。

[第 14集 ]主成分分析法

簡介:本講繼續(xù)上一講的內(nèi)容,詳細地講解了因子分析問題對應的 EM算法的步驟推導過程,并重點提出了其中應該注意的問題。之后介紹了主成分分析(PCA)的算法原理和主要應用。該算法是一種常用的降低數(shù)據(jù)維度的算法。

[第15集]奇異值分解

簡介:主成分分析 PCA,及舉出利用PCA找出相似文檔的例子;SVD(奇異值分析);無監(jiān)督算法和因子分析;ICA(獨立成分分析算法)和 CDF(累積分布函數(shù)),并復習了高斯分布的知識;最后舉了幾個應用ICA的例子。

[第 16集 ]馬爾可夫決策過程

簡介:主要介紹了監(jiān)督學習;然后引出強化學習的知識,用“使直升機飛翔”的例子闡述強化學習;介紹了馬氏決策過程(MDP),由此引出來的兩個解決最優(yōu)策略和最優(yōu)回報的算法;最后重點介紹了“值迭代”和“策略迭代算法”的實施,以及比較了它們的優(yōu)缺點。

[第 17集 ]離散與維數(shù)災難

簡介:繼續(xù)馬氏決策過程(MDP),以及解決狀態(tài) MDP的算法,主要詳細介紹了擬合值迭代算法(fitted valueiteration)和近似政策迭代(approximate policyiteration)這兩種算法,并通過具體的例子和求解的方式來說明這兩種算法。endprint

[第 18集 ]線性二次型調(diào)節(jié)控制

簡介:控制 NVP算法,非線性動力學系統(tǒng);在動力系統(tǒng)的模型和線性二次型調(diào)節(jié)控制(linear quadratic regulationcontrol),導出一些處理情況的函數(shù);還包含線性模型的建立,非線性模型的線性化的知識。

[第 19集 ]微分動態(tài)規(guī)劃

簡介:強化學習算法,引入調(diào)試強化學習算法,介紹 Kalman濾波器微分動態(tài)規(guī)劃 ,卡爾曼濾波與 LQR控制結合的一種算法(LQG控制算法,線性二次高斯),并比較了高斯分布和卡爾曼濾波的效率問題。

[ 第20 集] 策略搜索

簡介:學習和復習了強化學習算法,講述了一些POMDPs( 部分可觀察馬氏決策過程) 的知識,完全可觀察MDP 的知識;接下來介紹了策略搜索算法(其中包括兩種算法:Reinforced 和Pegasus);最后,介紹了與這門課程相關的一些課程,并給學生提出一些希望。

名詞解釋

機器學習 (Machine Learning, ML)是一門多領域交叉學科,涉及概率論、統(tǒng)計學、逼近論、凸分析和算法復雜度理論等多門學科。專門研究計算機怎樣模擬或?qū)崿F(xiàn)人類的學習行為,以獲取新的知識或技能,重新組織已有的知識結構使之不斷改善自身的性能。

機器學習是人工智能的核心,是使計算機具有智能的根本途徑,其應用遍及人工智能的各個領域,主要使用歸納、綜合而不是演繹。

一、研究意義

顧名思義,機器學習是研究如何使用機器來模擬人類學習活動的一門學科。更為嚴格的提法是:機器學習是一門研究機器獲取新知識和新技能,并識別現(xiàn)有知識的學問。這里所說的“機器”,指的就是計算機,電子計算機,中子計算機、光子計算機或神經(jīng)計算機等。

機器學習有下面幾種定義:“機器學習是一門人工智能的科學,該領域的主要研究對象是人工智能,特別是如何在經(jīng)驗學習中改善具體算法的性能”?!皺C器學習是對能通過經(jīng)驗自動改進的計算機算法的研究”?!皺C器學習是用數(shù)據(jù)或以往的經(jīng)驗,以此優(yōu)化計算機程序的性能標準。”一種經(jīng)常引用的英文定義是:A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E.

學習是人類具有的一種重要智能行為,但究竟什么是學習,長期以來卻眾說紛紜。社會學家、邏輯學家和心理學家都各有其不同的看法。

機器能否像人類一樣能具有學習能力呢? 1959年美國的塞繆爾 (Samuel)設計了一個下棋程序,這個程序具有學習能力,它可以在不斷的對弈中改善自己的棋藝。4年后,這個程序戰(zhàn)勝了設計者本人。又過了 3年,這個程序戰(zhàn)勝了美國一個保持 8年之久的常勝不敗的冠軍。這個程序向人們展示了機器學習的能力,提出了許多令人深思的社會問題與哲學問題。

機器的能力是否能超過人的,很多持否定意見的人的一個主要論據(jù)是:機器是人造的,其性能和動作完全是由設計者規(guī)定的,因此無論如何其能力也不會超過設計者本人。這種意見對不具備學習能力的機器來說的確是對的,可是對具備學習能力的機器就值得考慮了,因為這種機器的能力在應用中不斷地提高,過一段時間之后,設計者本人也不知它的能力到了何種水平。

二、主要策略

學習是一項復雜的智能活動,學習過程與推理過程是緊密相連的。按照學習中使用推理的多少,機器學習所采用的策略大體上可分為4種——機械學習、通過傳授學習、類比學習和通過事例學習。學習中所用的推理越多,系統(tǒng)的能力越強。

三、基本結構

環(huán)境向系統(tǒng)的學習部分提供某些信息;學習部分利用這些信息修改知識庫,以增進系統(tǒng)執(zhí)行部分完成任務的效能;執(zhí)行部分根據(jù)知識庫完成任務,同時把獲得的信息反饋給學習部分。在具體的應用中,環(huán)境、知識庫和執(zhí)行部分決定了具體的工作內(nèi)容,學習部分所需要解決的問題完全由上述三部分確定。endprint

猜你喜歡
貝葉斯線性機器
漸近線性Klein-Gordon-Maxwell系統(tǒng)正解的存在性
機器狗
機器狗
二階線性微分方程的解法
未來機器城
貝葉斯公式及其應用
基于貝葉斯估計的軌道占用識別方法
一種基于貝葉斯壓縮感知的說話人識別方法
IIRCT下負二項分布參數(shù)多變點的貝葉斯估計
具有θ型C-Z核的多線性奇異積分的有界性