您好,登錄后才能下訂單哦!
小編給大家分享一下python使用learning_curve的方法,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討吧!
python learning_curve函數
這個函數的作用為:對于不同大小的訓練集,確定交叉驗證訓練和測試的分數。
一個交叉驗證發生器將整個數據集分割k次,分割成訓練集和測試集。
不同大小的訓練集的子集將會被用來訓練評估器并且對于每一個大小的訓練子集都會產生一個分數,然后測試集的分數也會計算。然后,對于每一個訓練子集,運行k次之后的所有這些分數將會被平均。
這個函數需要引用sklearn包
import sklearnfrom sklearn.learning_curve import learning_curve
這個函數的調用格式是:
learning_curve(estimator, X, y, train_sizes=array([ 0.1 , 0.325, 0.55 , 0.775, 1. ]), cv=None, scoring=None, exploit_incremental_learning=False, n_jobs=1, pre_dispatch='all', verbose=0)
estimator:所使用的分類器
X:array-like, shape (n_samples, n_features)
訓練向量,n_samples是樣本的數量,n_features是特征的數量
y:array-like, shape (n_samples) or (n_samples, n_features), optional
目標相對于X分類或者回歸
train_sizes:array-like, shape (n_ticks,), dtype float or int
訓練樣本的相對的或絕對的數字,這些量的樣本將會生成learning curve。如果dtype是float,他將會被視為最大數量訓練集的一部分(這個由所選擇的驗證方法所決定)。否則,他將會被視為訓練集的絕對尺寸。要注意的是,對于分類而言,樣本的大小必須要充分大,達到對于每一個分類都至少包含一個樣本的情況。
cv:int, cross-validation generator or an iterable, optional
確定交叉驗證的分離策略
--None,使用默認的3-fold cross-validation,
--integer,確定是幾折交叉驗證
--一個作為交叉驗證生成器的對象
--一個被應用于訓練/測試分離的迭代器
verbose : integer, optional
控制冗余:越高,有越多的信息
返回值:
train_sizes_abs:array, shape = (n_unique_ticks,), dtype int
用于生成learning curve的訓練集的樣本數。由于重復的輸入將會被刪除,所以ticks可能會少于n_ticks.
train_scores : array, shape (n_ticks, n_cv_folds)
在訓練集上的分數
test_scores : array, shape (n_ticks, n_cv_folds)
在測試集上的分數
看完了這篇文章,相信你對python使用learning_curve的方法有了一定的了解,想了解更多相關知識,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。