2017年人工智慧就已經列入了國務院的人工智慧發展規劃中,人工智慧將成為推動中國發展的新生科技力量,併在未來扮演著越來越重要的角色,在這一背景下,機器學習會慢慢成為一個程式員必備的底層能力。
對於想要瞭解或從事AI行業工作的小夥伴們來說,能夠快速、深入的掌握機器學習相關知識顯得尤為重要,小編給大家整理機器學習的學習方法。
機器學習學習方法
如何去學,或者說如何高效的學以及學習的步驟和側重點非常重要。
1、切勿掉入書山中,實踐理論結合重要
很多人可能會一頭扎進書山中埋頭苦讀,讀完一本接著一本最後發現什麼都懂點什麼又都沒懂,這樣效率是很低的。在IT界,實踐才能學到東西,不要一直看書,可以邊看邊試試寫點程式碼,實現個小公式,小演演算法,這樣進步快一些。
2、採取並行學習法而非序列
這幅圖可以作為學習的基本流程,但是未必需要前面具備才往後進行,可以一邊學基礎,一邊寫程式碼,一邊還可以做比賽,這樣前期會痛苦一些,但在後面的學習過程中,速度會很快。
3、建立知識框架,修補知識漏洞
上面這幅圖是是sklearn的機器學習演演算法筆記,你可以在學習中去建立類似的筆記,有助於建立起整個學習框架,對於不懂得,再不斷從細節去學。
4、找到適合你的課程,跟著從頭到尾學
如果你是上班族或者沒有專業的老師給你講這門課,那麼報一門適合你的課程從頭到尾跟著學就非常重要了,不要過於相信你的自製力,沒有人和你一起學,你學了很久也看不到進步,慢慢興趣就沒了,所以找到能從頭到尾給你講的課程也很重要,這裡,我想推薦一門《機器學習》給你。
請相信我,這是一堂價效比爆炸的課程,超值到你如果不買,會後悔的那種。
先做個簡單介紹:
-
課程名:《機器學習》
-
上課時間:9月21日開課;課程直播時間為10周,20課時,40小時直播;課程有效期為12個月,有效期內均可反覆觀看課程內容。
-
課程價格:僅售399元。
-
學習形式:線上直播課程+講師答疑+微信班級群交流,全程由班主任+多位專業助教帶班,報名後在小象學院官網或服務號可學習課程。
報名,諮詢,檢視課程,請點選文末【閱讀原文】
主講老師
秦曾昌
英國布裡斯托(Bristol)大學碩士、博士。美國加州大學伯克利分校(UC Berkeley)博士後、牛津 (Oxford) 大學與卡內基梅隆大學 (CMU) 訪問學者。目前主要研究方向為資料挖掘、跨媒體檢索與自然語言理解。出版英文專著1本(Springer出版)、編輯論文集1本和專業論文或章節 (Book Chapter) 90餘篇。同時在IT工業界做機器學習、大資料、人工智慧等專業技術諮詢工作。
升級特點
1. 本課程的教學重心是從數學層面理解並掌握推導經典的機器學習演演算法,從歷史到細節深入瞭解機器學習的基本思想和各種演演算法的具體思路與方法。
2. 強化數學、機率論、數理統計的基礎知識,夯實機器學習的基礎必備知識。
3. 本課程將提供嚴謹的數學推導過程檔案,幫助學員更好地掌握演演算法推導(面試必備)
4. 課程中講設定隨堂測驗環節,幫助學員在課中鞏固和理解重要知識點。
課程大綱
第一課:機器學習的數學基礎
1. 機器學習的數學基礎
a. 函式與資料的泛化
b. 推理與歸納 (Deduction and Induction)
2. 線性代數(Linear Algebra)
a. 向量與矩陣 (Vector and Matrix)
b. 特徵值與特徵向量
c. 向量與高維空間
d. 特徵向量(Feature Vector)
3. 機率與統計(Probability and Statistics)
a. 條件機率與經典問題 (Conditional Probability)
b. 邊緣機率 (Marginal Probability)
4. 作業/實踐: 財寶問題的機率計算程式
第二課:機器學習的數學基礎
1. 統計推理(Statistical Inference)
a. 貝葉斯原理與推理 (Bayesian Theorem)
b. 極大似然估計 (Maximum Likelihood)
c. 主觀機率(Subjective Probability)
d. 最大後延機率(MAP)
2. 隨機變數(Random Variable)
a. 獨立與相關 (Independence)
b. 均值與方差 (Mean and Variance)
c. 協方差 (Co-Variance)
3. 機率分佈(Probability Distributions)
4. 中心極限定理(Central Limit Theorem)
5. 作業/實踐: 機率分佈取樣與不同隨機變數之間協方差計算
第三課:機器學習的數學基礎
1. 梯度下降(Gradient Descent)
a. 導數與梯度(Derivative and Gradient)
b. 隨機梯度下降(SGD)
c. 牛頓方法(Newton’s Method)
2. 凸函式(Convex Function)
a. Jensen不等式(Jensen’s Inequality)
b. 拉格朗日乘子(Lagrange Multiplier)
3. 作業/實踐: 利用牛頓方法求解給定的方程
第四課:機器學習的哲學(Philosophy of ML)
1. 演演算法的科學(Science of Algorithms)
a. 輸入與輸出的神話(Mystery of I/O)
b. 奧卡姆剃刀(Occam’s Razor)
2. 維數的詛咒(Curse of Dimensionality)
a. 高維的幾何特性 (Geometric Properity )
b. 高維空間流形(High-dimensional Manifold)
3. 機器學習與人工智慧(Machine learning and AI)
4. 機器學習的正規化(Paradigms of ML)
第五課:經典機器學習模型(Classical ML Models)
1. 樣本學習(Case-Based Reasoning)
a. K-近鄰(K-Nearest Neighbors)
b. K-近鄰預測(KNN for Prediction)
c. 距離與測度(Distance and Metric)
2. 樸素貝葉斯(Naïve Bayes Classifier)
a. 條件獨立(Conditional Independence)
b. 分類(Naive Bayes for Classification)
3. 作業/實踐:垃圾郵件分類的案例
第六課:經典機器學習模型(Classical ML Models)
1. 決策樹(Decision Tree Learning)
a. 資訊理論與機率
b. 資訊熵(Information Entropy)
c. ID3
2. 預測樹(CART)
a. Gini指標(Gini Index)
b. 決策樹與規則(DT and Rule Learning)
3. 作業/實踐:決策樹分類實驗
第七課:經典機器學習模型(Classical ML Models)
1. 整合學習(Ensemble learning)
a. Bagging and Boosting
b. AdaBoost
c. 誤差分解(Bias-Variance Decomposition)
d. 隨機森林(Boosting and Random Forest)
2. 模型評估(Model Evaluation)
a. 交叉驗證(Cross-Validation)
b. ROC (Receiver Operating Characteristics)
c. Cost-Sensitive Learning
3. 作業/實踐:隨機森林與決策樹分類實驗的比較
第八課:線性模型(Linear Models)
1. 線性模型(Linear Models)
a. 線性擬合(Linear Regression)
2. 最小二乘法(LMS)
b. 線性分類器(Linear Classifier)
3. 感知器(Perceptron)
4. 對數機率回歸(Logistic Regression)
5. 線性模型的機率解釋 (Probabilistic Interpretation)
6. 作業/實踐:對數機率回歸的文字情感分析中應用
第九課:線性模型(Linear Models)
1. 線性判別分析 (Linear Discrimination Analysis)
2. 約束線性模型 (Linear Model with Regularization)
a. LASSO
b. Ridge Regression
3. 稀疏表示與字典學習
a. Sparse Representation & Coding
b. Dictionary Learning
第十課:核方法(Kernel Methods)
1. 支援向量機SVM(Support Vector Machines)
a. VC-維(VC-Dimension)
b. 最大間距(Maximum Margin)
c. 支撐向量(Support Vectors)
2. 作業/實踐:SVM不同核函式在實際分類中比較
第十一課:核方法(Kernel Methods)
1. 對偶拉格朗日乘子
2. KKT條件(KKT Conditions)
3. Support Vector Regression (SVR)
4. 核方法(Kernel Methods)
第十二課:統計學習(Statistical Learning)
1. 判別模型與生成模型
a. 隱含變數(Latent Variable)
2. 混合模型(Mixture Model)
a. 三枚硬幣問題(3-Coin Problem)
b. 高斯混合模型(Gaussian Mixture Model)
3. EM演演算法(Expectation Maximization)
a. 期望最大(Expectation Maximization)
b. 混合模型的EM演演算法(EM for Mixture Models)
c. Jensen 不等式 (Jensen’s Inequality)
d. EM演演算法推導與效能 (EM Algorithm)
第十三課:統計學習(Statistical Learning)
1. 隱馬可夫模型(Hidden Markov Models)
a. 動態混合模型(Dynamic Mixture Model)
b. 維特比演演算法(Viterbi Algorithm)
c. 演演算法推導 (Algorithm)
2. 條件隨機場(Conditional Random Field)
第十四課:統計學習(Statistical Learning)
1. 層次圖模型(Hierarchical Bayesian Model)
a. 機率圖模型 (Graphical Model)
b. 從隱含語意模型到p-LSA (From LSA to P-LSA)
c. Dirichlet 分佈與特點(Dirichlet Distribution)
d. 對偶分佈(Conjugate Distribution)
第十五課:統計學習(Statistical Learning)
1. 主題模型(Topic Model – LDA)
a. Latent Dirichlet Allocation
b. 文字分類(LDA for Text Classification)
2. 中文主題模型(Topic Modeling for Chinese)
3. 其他主題模型(Other Topic Variables)
第十六課:無監督學習(Unsupervised Learning)
1. K-均值演演算法(K-Means)
a. 核密度估計(Kernel Density Estimation)
b. 層次聚類(Hierarchical Clustering)
2. 蒙特卡洛(Monte Carlo)
a. 蒙特卡洛樹搜尋(Monte Carol Tree Search)
b. MCMC(Markov Chain Monte Carlo)
c. Gibbs Sampling
第十七課:流形學習(Manifold Learning)
1. 主成分分析(PCA)
a. PCA and ICA
2. 低維嵌入(Low-Dimensional Embedding)
a. 等度量對映(Isomap)
b. 區域性線性嵌入(Locally Linear Embedding)
第十八課:概念學習(Concept Learning)
1. 概念學習(Concept Learning)
a. 經典概念學習
b. One-Short概念學習
2. 高斯過程學習(Gaussian Process for ML)
c. Dirichlet Process
第十九課:強化學習(Reinforcement Learning)
1. 獎賞與懲罰(Reward and Penalty)
a. 狀態空間 (State-Space Model)
b. Q-學習演演算法 (Q-Learning)
2. 路徑規劃 (Path Planning)
3. 遊戲人工智慧 (Game AI)
4. 作業/實踐:小鳥飛行遊戲的自動學習演演算法
第二十課:神經網路
1. 多層神經網路
a. 非線性對映(Nonlinear Mapping)
b. 反向傳播(Back-propagation)
2. 自動編碼器(Auto-Encoder)
報名,諮詢,檢視課程,請點選【閱讀原文】
↓↓↓