資源簡介
機器學(xué)習(xí)算法詳解? 一、線性回歸
? 1、代價函數(shù)
? 2、梯度下降算法
? 3、均值歸一化
? 4、最終運行結(jié)果
? 5、使用scikit-learn庫中的線性模型實現(xiàn)
? 二、邏輯回歸
? 1、代價函數(shù)
? 2、梯度
? 3、正則化
? 4、S型函數(shù)(即)
? 5、映射為多項式
? 6、使用的優(yōu)化方法
? 7、運行結(jié)果
? 8、使用scikit-learn庫中的邏輯回歸模型實現(xiàn)
? 邏輯回歸_手寫數(shù)字識別_OneVsAll
? 1、隨機顯示100個數(shù)字
? 2、OneVsAll
? 3、手寫數(shù)字識別
? 4、預(yù)測
? 5、運行結(jié)果
? 6、使用scikit-learn庫中的邏輯回歸模型實現(xiàn)
? 三、BP神經(jīng)網(wǎng)絡(luò)
? 1、神經(jīng)網(wǎng)絡(luò)model
? 2、代價函數(shù)
? 3、正則化
? 4、反向傳播BP
? 5、BP可以求梯度的原因
? 6、梯度檢查
? 7、權(quán)重的隨機初始化
? 8、預(yù)測
? 9、輸出結(jié)果
? 四、SVM支持向量機
? 1、代價函數(shù)
? 2、Large Margin
? 3、SVM Kernel(核函數(shù))
? 4、使用中的模型代碼
? 5、運行結(jié)果
? 五、K-Means聚類算法
? 1、聚類過程
? 2、目標(biāo)函數(shù)
? 3、聚類中心的選擇
? 4、聚類個數(shù)K的選擇
? 5、應(yīng)用——圖片壓縮
? 6、使用scikit-learn庫中的線性模型實現(xiàn)聚類
? 7、運行結(jié)果
? 六、PCA主成分分析(降維)
? 1、用處
? 2、2D-->1D,nD-->kD
? 3、主成分分析PCA與線性回歸的區(qū)別
? 4、PCA降維過程
? 5、數(shù)據(jù)恢復(fù)
? 6、主成分個數(shù)的選擇(即要降的維度)
? 7、使用建議
? 8、運行結(jié)果
? 9、使用scikit-learn庫中的PCA實現(xiàn)降維
? 七、異常檢測 Anomaly Detection
? 1、高斯分布(正態(tài)分布)
? 2、異常檢測算法
? 3、評價的好壞,以及的選取
? 4、選擇使用什么樣的feature(單元高斯分布)
? 5、多元高斯分布
? 6、單元和多元高斯分布特點
? 7、程序運行結(jié)果
代碼片段和文件信息
評論
共有 條評論