課程內(nèi)容:
第1章: 菜菜的機(jī)器學(xué)習(xí)sklearn課程介紹
第2章: 決策樹
2.1分類樹
2.2回歸樹
2.3回歸樹案例:用回歸樹擬合正弦曲線
2.4案例:泰坦尼克號生存者預(yù)測
第3章: 隨機(jī)森林
3.1集成算法概述
3.2隨機(jī)森林分類器 、回歸器
3.3案例:用隨機(jī)森林填補(bǔ)缺失值
3.4機(jī)器學(xué)習(xí)中調(diào)參的基本思想
3.5案例:隨機(jī)森林在乳腺癌數(shù)據(jù)上的調(diào)參
第4章: 數(shù)據(jù)預(yù)處理和特征工程
4.1數(shù)據(jù)預(yù)處理與特征工程
4.2數(shù)據(jù)預(yù)處理:無量綱化:數(shù)據(jù)歸一化、缺失值、處理分類型數(shù)據(jù)、處理連續(xù)型數(shù)據(jù)
4.3特征選擇過濾法:方差過濾 、卡方過濾、F檢驗(yàn)和互信息法、嵌入法、包裝法
第5章: 主成分分析PCA與奇異值分解SVD
5.1降維算法
5.2參數(shù)應(yīng)用案例:高維數(shù)據(jù)的可視化
5.3屬性應(yīng)用案例:人臉識別中的components_應(yīng)用
5.4接口應(yīng)用案例:用人臉識別看PCA降維后的信息保存量
5.5接口應(yīng)用案例:用PCA實(shí)現(xiàn)手寫數(shù)字的噪音過濾
5.6總結(jié):原理,流程,重要屬性接口和參數(shù)
5.**CA實(shí)現(xiàn)784個(gè)特征的手寫數(shù)字的降維
第6章: 邏輯回歸與評分卡
6.1邏輯回歸
6.******rn當(dāng)中的邏輯回歸
6.3二元邏輯回歸的損失函數(shù)
6.4正則化:重要參數(shù)penalty & C
6.5邏輯回歸的特征工程
6.6重要參數(shù)max_iter - 梯度下降求解邏輯回歸的過程
6.7梯度的概念與解惑、步長的概念與解惑
6.8二元回歸與多元回歸:重要參數(shù)solver & multi_class
6.9樣本不均衡與參數(shù)class_weight
6.1評分卡案例 - 評分卡與完整的模型開發(fā)流程
6.11評分卡 - 數(shù)據(jù)預(yù)處理- 重復(fù)值與缺失值、異常值
第7章: 聚類算法KMeans
7.1無監(jiān)督學(xué)習(xí)概述,聚類vs分類
7.******rn當(dāng)中的聚類算法
7.3簇內(nèi)平方和,時(shí)間復(fù)雜度
7.*****ns - 重要參數(shù)n_clusters
7.5聚類算法的模型評估指標(biāo)
7.6案例:輪廓系數(shù)找n_clusters
7.7案例:Kmeans做矢量量化
第8章: 支持向量機(jī) (上)
8.**VM
8.2線性SVC的損失函數(shù)
8.3函數(shù)間隔與幾何間隔
8.4拉格朗日對偶函數(shù)
8.5線性SVM可視化
8.6案例:如何選取核函數(shù)
8.7案例:在乳腺癌數(shù)據(jù)集上探索核函數(shù)的性質(zhì)
第9章: 支持向量機(jī) (下)
9.1簡單復(fù)習(xí)支持向量機(jī)的基本原理
9.2參數(shù)C的深入理解:多個(gè)支持向量存在的理由
9.3二分類SVC中的樣本不均衡問題:重要參數(shù)class_weight
9.**VC的模型評估指標(biāo)
9.5混淆矩陣與準(zhǔn)確率
9.6精確度Precision、召回率Recall與F1 measure
9.7對多數(shù)類樣本的關(guān)懷:特異度Specificity與假正率FPR
9.******rn中的混淆矩陣
9.**OC曲線:Recall與假正率FPR的平衡
9.1案例:預(yù)測明天是否會(huì)下雨 - 案例背景
9.11案例:導(dǎo)庫導(dǎo)數(shù)據(jù),探索特征,jupyter中的快捷鍵
9.12案例:分集,優(yōu)先處理標(biāo)簽
9.13案例:描述性統(tǒng)計(jì),處理異常值
9.14案例:現(xiàn)實(shí)數(shù)據(jù)上的數(shù)據(jù)預(yù)處理
9.15案例:現(xiàn)實(shí)數(shù)據(jù)集上的數(shù)據(jù)預(yù)處理 - 處理連續(xù)型變量
9.16案例:建模與模型評估
9.17案例:模型調(diào)參:追求精確度與recall的平衡
第10章: 回歸大家族:線性回歸,嶺回歸,Lasso與多項(xiàng)式回歸
10.1課時(shí) 182 : 線性回歸大家族
10.2多元線性回歸的基本原理和損失函數(shù)
10.3回歸類模型的評估指標(biāo)
10.4多重共線性:含義,數(shù)學(xué),以及解決方案
10.5嶺回歸處理多重共線性
10*****so
10.7線性數(shù)據(jù)與非線性數(shù)據(jù)
10.8線性vs非線性模型
10.9離散化:幫助線性回歸解決非線性問題
10.1多項(xiàng)式回歸
第11章: 樸素貝葉斯
11.1概率論基礎(chǔ) - 貝葉斯理論等式
11.2瓢蟲冬眠:理解條件概率
11.3貝葉斯的性質(zhì)與后驗(yàn)估計(jì)
11.4漢堡稱重:連續(xù)型變量的概率估計(jì)
11******rn中的樸素貝葉斯
11.6高斯樸素貝葉斯
11.7多項(xiàng)式樸素貝葉斯
11.8伯努利樸素貝葉斯
11.9補(bǔ)集樸素貝葉斯
11.1案例:貝葉斯做文本分類
第12章: XGBoost