在學習機器學習算法的過程中,,我們經常需要數(shù)據(jù)來驗證算法,,調試參數(shù),。但是找到一組十分合適某種特定算法類型的數(shù)據(jù)樣本卻不那么容易,。還好numpy, scikit-learn都提供了隨機數(shù)據(jù)生成的功能,,我們可以自己生成適合某一種模型的數(shù)據(jù),用隨機數(shù)據(jù)來做清洗,,歸一化,,轉換,然后選擇模型與算法做擬合和預測,。下面對scikit-learn和numpy生成數(shù)據(jù)樣本的方法做一個總結,。 1. numpy隨機數(shù)據(jù)生成APInumpy比較適合用來生產一些簡單的抽樣數(shù)據(jù)。API都在random類中,,常見的API有: 1) rand(d0, d1, ..., dn) 用來生成d0xd1x...dn維的數(shù)組,。數(shù)組的值在[0,1]之間 例如:np.random.rand(3,2,2),輸出如下3x2x2的數(shù)組 array([[[ 0.49042678, 0.60643763], 2) randn((d0, d1, ..., dn), 也是用來生成d0xd1x...dn維的數(shù)組,。不過數(shù)組的值服從N(0,1)的標準正態(tài)分布,。 例如:np.random.randn(3,2),,輸出如下3x2的數(shù)組,這些值是N(0,1)的抽樣數(shù)據(jù),。 array([[-0.5889483 , -0.34054626], 如果需要服從的正態(tài)分布,,只需要在randn上每個生成的值x上做變換即可,例如: 例如:2*np.random.randn(3,2) + 1,,輸出如下3x2的數(shù)組,,這些值是N(1,4)的抽樣數(shù)據(jù)。 array([[ 2.32910328, -0.677016 ], 3)randint(low[, high, size]),,生成隨機的大小為size的數(shù)據(jù),,size可以為整數(shù),為矩陣維數(shù),,或者張量的維數(shù),。值位于半開區(qū)間 [low, high)。 例如:np.random.randint(3, size=[2,3,4])返回維數(shù)維2x3x4的數(shù)據(jù),。取值范圍為最大值為3的整數(shù),。 array([[[2, 1, 2, 1], 再比如: np.random.randint(3, 6, size=[2,3]) 返回維數(shù)為2x3的數(shù)據(jù)。取值范圍為[3,6). array([[4, 5, 3], 4) random_integers(low[, high, size]),和上面的randint類似,,區(qū)別在與取值范圍是閉區(qū)間[low, high],。 5) random_sample([size]), 返回隨機的浮點數(shù),,在半開區(qū)間 [0.0, 1.0),。如果是其他區(qū)間[a,b),可以加以轉換(b - a) * random_sample([size]) + a 例如: (5-2)*np.random.random_sample(3)+2 返回[2,5)之間的3個隨機數(shù)。 array([ 2.87037573, 4.33790491, 2.1662832 ])
2. scikit-learn隨機數(shù)據(jù)生成API介紹 scikit-learn生成隨機數(shù)據(jù)的API都在datasets類之中,,和numpy比起來,,可以用來生成適合特定機器學習模型的數(shù)據(jù)。常用的API有: 1) 用make_regression 生成回歸模型的數(shù)據(jù) 2) 用make_hastie_10_2,,make_classification或者make_multilabel_classification生成分類模型數(shù)據(jù) 3) 用make_blobs生成聚類模型數(shù)據(jù) 4) 用make_gaussian_quantiles生成分組多維正態(tài)分布的數(shù)據(jù) 3. scikit-learn隨機數(shù)據(jù)生成實例3.1 回歸模型隨機數(shù)據(jù)這里我們使用make_regression生成回歸模型數(shù)據(jù),。幾個關鍵參數(shù)有n_samples(生成樣本數(shù)), n_features(樣本特征數(shù)),,noise(樣本隨機噪音)和coef(是否返回回歸系數(shù)),。例子代碼如下: import numpy as np import matplotlib.pyplot as plt %matplotlib inline from sklearn.datasets.samples_generator import make_regression # X為樣本特征,y為樣本輸出,, coef為回歸系數(shù),,共1000個樣本,每個樣本1個特征 X, y, coef =make_regression(n_samples=1000, n_features=1,noise=10, coef=True) # 畫圖 plt.scatter(X, y, color='black') plt.plot(X, X*coef, color='blue', linewidth=3) plt.xticks(()) plt.yticks(()) plt.show() 輸出的圖如下: 3.2 分類模型隨機數(shù)據(jù)這里我們用make_classification生成三元分類模型數(shù)據(jù),。幾個關鍵參數(shù)有n_samples(生成樣本數(shù)),, n_features(樣本特征數(shù)), n_redundant(冗余特征數(shù))和n_classes(輸出的類別數(shù)),,例子代碼如下: import numpy as np import matplotlib.pyplot as plt %matplotlib inline from sklearn.datasets.samples_generator import make_classification # X1為樣本特征,,Y1為樣本類別輸出,, 共400個樣本,每個樣本2個特征,,輸出有3個類別,,沒有冗余特征,每個類別一個簇 X1, Y1 = make_classification(n_samples=400, n_features=2, n_redundant=0, n_clusters_per_class=1, n_classes=3) plt.scatter(X1[:, 0], X1[:, 1], marker='o', c=Y1) plt.show() 輸出的圖如下: 3.3 聚類模型隨機數(shù)據(jù)這里我們用make_blobs生成聚類模型數(shù)據(jù),。幾個關鍵參數(shù)有n_samples(生成樣本數(shù)),, n_features(樣本特征數(shù)),centers(簇中心的個數(shù)或者自定義的簇中心)和cluster_std(簇數(shù)據(jù)方差,,代表簇的聚合程度),。例子如下: import numpy as np import matplotlib.pyplot as plt %matplotlib inline from sklearn.datasets.samples_generator import make_blobs # X為樣本特征,Y為樣本簇類別,, 共1000個樣本,,每個樣本2個特征,共3個簇,,簇中心在[-1,-1], [1,1], [2,2],, 簇方差分別為[0.4, 0.5, 0.2] X, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1,-1], [1,1], [2,2]], cluster_std=[0.4, 0.5, 0.2]) plt.scatter(X[:, 0], X[:, 1], marker='o', c=y) plt.show() 輸出的圖如下: 3.4 分組正態(tài)分布混合數(shù)據(jù)我們用make_gaussian_quantiles生成分組多維正態(tài)分布的數(shù)據(jù)。幾個關鍵參數(shù)有n_samples(生成樣本數(shù)),, n_features(正態(tài)分布的維數(shù)),,mean(特征均值), cov(樣本協(xié)方差的系數(shù)),, n_classes(數(shù)據(jù)在正態(tài)分布中按分位數(shù)分配的組數(shù)),。 例子如下: import numpy as np import matplotlib.pyplot as plt %matplotlib inline from sklearn.datasets import make_gaussian_quantiles #生成2維正態(tài)分布,生成的數(shù)據(jù)按分位數(shù)分成3組,,1000個樣本,2個樣本特征均值為1和2,,協(xié)方差系數(shù)為2 X1, Y1 = make_gaussian_quantiles(n_samples=1000, n_features=2, n_classes=3, mean=[1,2],cov=2) plt.scatter(X1[:, 0], X1[:, 1], marker='o', c=Y1) 輸出圖如下 以上就是生產隨機數(shù)據(jù)的一個總結,希望可以幫到學習機器學習算法的朋友們,?!?/p> (歡迎轉載,轉載請注明出處,。歡迎溝通交流: [email protected]) |
|