亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python中sklearn模型怎么用

發布時間:2021-08-12 15:01:09 來源:億速云 閱讀:161 作者:小新 欄目:開發技術

這篇文章主要介紹Python中sklearn模型怎么用,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

1.主要功能如下:

1.classification分類
2.Regression回歸
3.Clustering聚類
4.Dimensionality reduction降維
5.Model selection模型選擇
6.Preprocessing預處理

2.主要模塊分類:

1.sklearn.base: Base classes and utility function基礎實用函數
2.sklearn.cluster: Clustering聚類
3.sklearn.cluster.bicluster: Biclustering 雙向聚類
4.sklearn.covariance: Covariance Estimators 協方差估計
5.sklearn.model_selection: Model Selection 模型選擇
6.sklearn.datasets: Datasets 數據集
7.sklearn.decomposition: Matrix Decomposition 矩陣分解
8.sklearn.dummy: Dummy estimators 虛擬估計
9.sklearn.ensemble: Ensemble Methods 集成方法
10.sklearn.exceptions: Exceptions and warnings 異常和警告
11.sklearn.feature_extraction: Feature Extraction 特征抽取
12.sklearn.feature_selection: Feature Selection 特征選擇
13。sklearn.gaussian_process: Gaussian Processes 高斯過程
14.sklearn.isotonic: Isotonic regression 保序回歸
15.sklearn.kernel_approximation: Kernel Approximation 核 逼近
16.sklearn.kernel_ridge: Kernel Ridge Regression 嶺回歸ridge
17.sklearn.discriminant_analysis: Discriminant Analysis 判別分析
18.sklearn.linear_model: Generalized Linear Models 廣義線性模型
19.sklearn.manifold: Manifold Learning 流形學習
20.sklearn.metrics: Metrics 度量 權值
21.sklearn.mixture: Gaussian Mixture Models 高斯混合模型
22.sklearn.multiclass: Multiclass and multilabel classification 多等級標簽分類
23.sklearn.multioutput: Multioutput regression and classification 多元回歸和分類
24.sklearn.naive_bayes: Naive Bayes 樸素貝葉斯
25.sklearn.neighbors: Nearest Neighbors 最近鄰
26.sklearn.neural_network: Neural network models 神經網絡
27.sklearn.calibration: Probability Calibration 概率校準
28.sklearn.cross_decomposition: Cross decomposition 交叉求解
29.sklearn.pipeline: Pipeline 管道
30.sklearn.preprocessing: Preprocessing and Normalization 預處理和標準化
31.sklearn.random_projection: Random projection 隨機映射
32.sklearn.semi_supervised: Semi-Supervised Learning 半監督學習
33.sklearn.svm: Support Vector Machines 支持向量機
34.sklearn.tree: Decision Tree 決策樹
35.sklearn.utils: Utilities 實用工具

3.數據預處理:

from sklearn import preprocessing

標準化處理函數

將數據轉化為標準正態分布(均值為0,方差為1)

preprocessing.scale(X,axis=0, with_mean=True, with_std=True, copy=True)

將數據在縮放在固定區間,默認縮放到區間 [0, 1]

preprocessing.minmax_scale(X,feature_range=(0, 1), axis=0, copy=True)

數據的縮放比例為絕對值最大值,并保留正負號,即在區間 [-1.0, 1.0] 內。唯一可用于稀疏數據 scipy.sparse的標準化
preprocessing.maxabs_scale(X,axis=0, copy=True)

通過 Interquartile Range (IQR) 標準化數據,即四分之一和四分之三分位點之間
preprocessing.robust_scale(X,axis=0, with_centering=True, with_scaling=True,copy=True)

標準化正態分布類

基于mean和std的標準化

 classpreprocessing.StandardScaler(copy=True, with_mean=True,with_std=True)
 # 屬性:
 # scale_:ndarray,縮放比例
 # mean_:ndarray,均值
 # var_:ndarray,方差
 # n_samples_seen_:int,已處理的樣本個數,調用partial_fit()時會累加,調用fit()會重設
 # 這里可以根據訓練集進行標準化,測試集沿用訓練集的標準化方法!
 scaler = preprocessing.StandardScaler().fit(train_data)
 scaler.transform(train_data)
 scaler.transform(test_data)
 # 將每個特征值歸一化到一個固定范圍
 scaler = preprocessing.MinMaxScaler(feature_range=(0, 1)).fit(train_data)
 scaler.transform(train_data)
 scaler.transform(test_data)

將數據在縮放在固定區間的類,默認縮放到區間 [0, 1]

classpreprocessing.MinMaxScaler(feature_range=(0, 1),copy=True):
 # 屬性:
 # min_:ndarray,縮放后的最小值偏移量
 # scale_:ndarray,縮放比例
 # data_min_:ndarray,數據最小值
 # data_max_:ndarray,數據最大值
 # data_range_:ndarray,數據最大最小范圍的長度

數據的縮放比例為絕對值最大值,并保留正負號,即在區間 [-1.0, 1.0] 內。可以用于稀疏數據scipy.sparse

classpreprocessing.MaxAbsScaler(copy=True):
 # 屬性:
 # scale_:ndarray,縮放比例
 # max_abs_:ndarray,絕對值最大值
 # n_samples_seen_:int,已處理的樣本個數

通過 Interquartile Range (IQR) 標準化數據,即四分之一和四分之三分位點之間

classpreprocessing.RobustScaler(with_centering=True,with_scaling=True, copy=True):
 # 屬性:
 # center_:ndarray,中心點
 # scale_:ndarray,縮放比例

生成 kernel 矩陣,用于將 svm kernel 的數據標準化

classpreprocessing.KernelCenterer:

以上幾個標準化類的方法:

fit(X[,y]):根據數據 X 的值,設置標準化縮放的比例
transform(X[,y, copy]):用之前設置的比例標準化 X
fit_transform(X[, y]):根據 X設置標準化縮放比例并標準化
partial_fit(X[,y]):累加性的計算縮放比例
inverse_transform(X[,copy]):將標準化后的數據轉換成原數據比例
get_params([deep]):獲取參數
set_params(**params):設置參數

正則化

# 計算兩個樣本的相似度時必不可少的一個操作,就是正則化。其思想是:首先求出樣本的p-范數,然后該樣本的所有元素都要除以該范數,這樣最終使得每個樣本的范數都為1。
# L1 norm 是指對每個樣本的每一個元素都除以該樣本的L1范數. 使行和為1

 # eg. 0.47619048 = 10 /(10+4+5+2)
 X = np.array([[10,4,5,2], [1,4,5,7]])
 X_normalized = preprocessing.normalize(X, norm='l1')
 X_normalized          
 array([[ 0.47619048, 0.19047619, 0.23809524, 0.0952381 ],
   [ 0.05882353, 0.23529412, 0.29411765, 0.41176471]])

 #L2 norm 是指對每個樣本的每一個元素都除以該樣本的L2范數. 
 # eg. 0.4 = 1/sqrt(1+1+4)
 X = [[ 1., -1., 2.],
   [ 2., 0., 0.],
   [ 0., 1., -1.]]
 X_normalized = preprocessing.normalize(X, norm='l2')

 X_normalized          
 array([[ 0.40, -0.40, 0.81],
   [ 1. , 0. , 0. ],
   [ 0. , 0.70, -0.70]])

4.數據集:

將數據集分為訓練集和測試集

from sklearn.mode_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# arrays:樣本數組,包含特征向量和標簽

# test_size:
#  float-獲得多大比重的測試樣本 (默認:0.25)
#  int - 獲得多少個測試樣本
# train_size: 同test_size

# random_state: int - 隨機種子(種子固定,實驗可復現)
  
# shuffle - 是否在分割之前對數據進行洗牌(默認True)

5.模型選擇:

模型流程:

# 擬合模型
model.fit(X_train, y_train)

# 模型預測
model.predict(X_test)

# 獲得這個模型的參數
model.get_params()

# 為模型進行打分
model.score(data_X, data_y)

線性回歸

from sklearn.linear_model import LinearRegression
 # 定義線性回歸模型
 model = LinearRegression(fit_intercept=True, normalize=False, copy_X=True, n_jobs=1)
 """
 fit_intercept:是否計算截距。False-模型沒有截距

 normalize: 當fit_intercept設置為False時,該參數將被忽略。 如果為真,則回歸前的回歸系數X將通過減去平均值并除以l2-范數而歸一化。

  n_jobs:指定線程數
 """

邏輯回歸

from sklearn.linear_model import LogisticRegression
 # 定義邏輯回歸模型
 model = LogisticRegression(penalty='l2', dual=False, tol=0.0001, C=1.0, 
  fit_intercept=True, intercept_scaling=1, class_weight=None, 
  random_state=None, solver='liblinear', max_iter=100, multi_class='ovr', 
  verbose=0, warm_start=False, n_jobs=1)

 """
  penalty:使用指定正則化項(默認:l2)
  dual: n_samples > n_features取False(默認)
  C:正則化強度的反,值越小正則化強度越大
  n_jobs: 指定線程數
  random_state:隨機數生成器
  fit_intercept: 是否需要常量
 """

樸素貝葉斯

from sklearn import naive_bayes
 model = naive_bayes.GaussianNB() 
 model = naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None)
 model = naive_bayes.BernoulliNB(alpha=1.0, binarize=0.0, fit_prior=True, class_prior=None)
 """

  alpha:平滑參數
  fit_prior:是否要學習類的先驗概率;false-使用統一的先驗概率
  class_prior: 是否指定類的先驗概率;若指定則不能根據參數調整
  binarize: 二值化的閾值,若為None,則假設輸入由二進制向量組成
 """

決策樹

from sklearn import tree 
 model = tree.DecisionTreeClassifier(criterion='gini', max_depth=None, 
  min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, 
  max_features=None, random_state=None, max_leaf_nodes=None, 
  min_impurity_decrease=0.0, min_impurity_split=None,
   class_weight=None, presort=False)
 """
  criterion :特征選擇準則gini/entropy
  max_depth:樹的最大深度,None-盡量下分
  min_samples_split:分裂內部節點,所需要的最小樣本樹
  min_samples_leaf:葉子節點所需要的最小樣本數
  max_features: 尋找最優分割點時的最大特征數
  max_leaf_nodes:優先增長到最大葉子節點數
  min_impurity_decrease:如果這種分離導致雜質的減少大于或等于這個值,則節點將被拆分。
 """

支持向量機SVM

 from sklearn.svm import SVC
 model = SVC(C=1.0, kernel='rbf', gamma='auto')
 """
  C:誤差項的懲罰參數C
  gamma: 核相關系數。浮點數,If gamma is ‘auto' then 1/n_features will be used instead.
 """

knn最近鄰算法

 from sklearn import neighbors
 #定義kNN分類模型
 model = neighbors.KNeighborsClassifier(n_neighbors=5, n_jobs=1) # 分類
 model = neighbors.KNeighborsRegressor(n_neighbors=5, n_jobs=1) # 回歸
 """
  n_neighbors: 使用鄰居的數目
  n_jobs:并行任務數
 """

多層感知器

 from sklearn.neural_network import MLPClassifier
 # 定義多層感知機分類算法
 model = MLPClassifier(activation='relu', solver='adam', alpha=0.0001)
 """
  hidden_layer_sizes: 元祖
  activation:激活函數
  solver :優化算法{‘lbfgs', ‘sgd', ‘adam'}
  alpha:L2懲罰(正則化項)參數。
 """

交叉驗證

 from sklearn.model_selection import cross_val_score
 cross_val_score(model, X, y=None, scoring=None, cv=None, n_jobs=1)
 """
  model:擬合數據的模型
  cv : k-fold
  scoring: 打分參數-‘accuracy'、‘f1'、‘precision'、‘recall' 、‘roc_auc'、'neg_log_loss'等等
 """

檢驗曲線

from sklearn.model_selection import validation_curve
 train_score, test_score = validation_curve(model, X, y, param_name, param_range, cv=None, scoring=None, n_jobs=1)
 """
  model:用于fit和predict的對象
  X, y: 訓練集的特征和標簽
  param_name:將被改變的參數的名字
  param_range: 參數的改變范圍
  cv:k-fold

 """

6.模型保存:

 # 保存為pickle文件
 import pickle

 # 保存模型
 with open('model.pickle', 'wb') as f:
  pickle.dump(model, f)

 # 讀取模型
 with open('model.pickle', 'rb') as f:
  model = pickle.load(f)
 model.predict(X_test)

 # sklearn自帶方法joblib
 from sklearn.externals import joblib
 # 保存模型
 joblib.dump(model, 'model.pickle')
 #載入模型
 model = joblib.load('model.pickle')

以上是“Python中sklearn模型怎么用”這篇文章的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

桑日县| 紫金县| 金华市| 上犹县| 增城市| 榆社县| 乌鲁木齐县| 台中县| 灵宝市| 论坛| 鹤峰县| 凌源市| 彭州市| 灵石县| 石首市| 武强县| 贵港市| 博湖县| 桦甸市| 当阳市| 桐柏县| 万州区| 双桥区| 崇信县| 保山市| 云南省| 玉溪市| 陆川县| 横峰县| 寿光市| 上思县| 双城市| 文水县| 墨江| 商洛市| 刚察县| 平江县| 苏尼特左旗| 新野县| 英吉沙县| 泾阳县|