首页 未命名正文

linux编程_机械学习算法的随机数据天生

云返利网 未命名 2020-05-26 09:07:02 13 0

在学习机械学习算法的过程中,我们经常需要数据来验证算法,调试参数。然则找到一组十分合适某种特定算法类型的数据样本却不那么容易。还好numpy, scikit-learn都提供了随机数据天生的功效,我们可以自己天生适合某一种模子的数据,用随机数据来做洗濯,归一化,转换,然后选择模子与算法做拟合和展望。下面临scikit-learn和numpy天生数据样本的方式做一个总结。

1. numpy随机数据天生API

    numpy对照适合用来生产一些简朴的抽样数据。API都在random类中,常见的API有:

    1) rand(d0, d1, ..., dn) 用来天生d0xd1x...dn维的数组。数组的值在[0,1]之间

    例如:np.random.rand(3,2,2),输出如下3x2x2的数组

array([[[ 0.49042678,  0.60643763],
        [ 0.18370487,  0.10836908]],

      [[ 0.38269728,  0.66130293],
        [ 0.5775944 ,  0.52354981]],

      [[ 0.71705929,  0.89453574],
        [ 0.36245334,  0.37545211]]])  

    2) randn((d0, d1, ..., dn), 也是用来天生d0xd1x...dn维的数组。不外数组的值遵守N(0,1)的尺度正态分布。

    例如:np.random.randn(3,2),输出如下3x2的数组,这些值是N(0,1)的抽样数据。

array([[-0.5889483 , -0.34054626],
      [-2.03094528, -0.21205145],
      [-0.20804811, -0.97289898]])

若是需要遵守N(μ,σ 2 )  N(μ,σ2) 的正态分布,只需要在randn上每个天生的值x上做变换σx+μ σx+μ 即可,例如:

例如:2*np.random.randn(3,2) + 1,输出如下3x2的数组,这些值是N(1,4)的抽样数据。

array([[ 2.32910328, -0.677016  ],
      [-0.09049511,  1.04687598],
      [ 2.13493001,  3.30025852]])

3)randint(low[, high, size]),天生随机的巨细为size的数据,size可以为整数,为矩阵维数,或者张量的维数。值位于半开区间 [low, high)。

    例如:np.random.randint(3, size=[2,3,4])返回维数维2x3x4的数据。取值局限为最大值为3的整数。

      array([[[2, 1, 2, 1],
          [0, 1, 2, 1],
          [2, 1, 0, 2]],

          [[0, 1, 0, 0],
          [1, 1, 2, 1],
          [1, 0, 1, 2]]])

    再好比: np.random.randint(3, 6, size=[2,3]) 返回维数为2x3的数据。取值局限为[3,6).

      array([[4, 5, 3],
        [3, 4, 5]])

    4) random_integers(low[, high, size]),和上面的randint类似,区别在与取值局限是闭区间[low, high]。

    5) random_sample([size]), 返回随机的浮点数,在半开区间 [0.0, 1.0)。若是是其他区间[a,b),可以加以转换(b - a) * random_sample([size]) + a

    例如: (5-2)*np.random.random_sample(3)+2 返回[2,5)之间的3个随机数。

      array([ 2.87037573,  4.33790491,  2.1662832 ])

 

2. scikit-learn随机数据天生API先容

    scikit-learn天生随机数据的API都在datasets类之中,和numpy比起来,可以用来天生适合特定机械学习模子的数据。常用的API有:

    1) 用make_regression 天生回归模子的数据

    2) 用make_hastie_10_2,make_classification或者make_multilabel_classification天生分类模子数据

    3) 用make_blobs天生聚类模子数据

    4) 用make_gaussian_quantiles天生分组多维正态分布的数据

3. scikit-learn随机数据天生实例

3.1 回归模子随机数据

     这里我们使用make_regression天生回归模子数据。几个要害参数有n_samples(天生样本数), n_features(样本特征数),noise(样本随机噪音)和coef(是否返回回归系数)。例子代码如下:

import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
from sklearn.datasets.samples_generator import make_regression
# X为样本特征,y为样本输出, coef为回归系数,共1000个样本,每个样本1个特征
X, y, coef =make_regression(n_samples=1000, n_features=1,noise=10, coef=True)
# 绘图
plt.scatter(X, y,  color='black')
plt.plot(X, X*coef, color='blue',
         linewidth=3)

plt.xticks(())
plt.yticks(())

plt.show()

输出的图如下:

3.2 分类模子随机数据

    这里我们用make_classification天生三元分类模子数据。几个要害参数有n_samples(天生样本数), n_features(样本特征数), n_redundant(冗余特征数)和n_classes(输出的种别数),例子代码如下:

import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
from sklearn.datasets.samples_generator import make_classification
# X1为样本特征,Y1为样本种别输出, 共400个样本,每个样本2个特征,输出有3个种别,没有冗余特征,每个种别一个簇
X1, Y1 = make_classification(n_samples=400, n_features=2, n_redundant=0,
                             n_clusters_per_class=1, n_classes=3)
plt.scatter(X1[:, 0], X1[:, 1], marker='o', c=Y1)
plt.show()

输出的图如下:

3.3 聚类模子随机数据

    这里我们用make_blobs天生聚类模子数据。几个要害参数有n_samples(天生样本数), n_features(样本特征数),centers(簇中央的个数或者自定义的簇中央)和cluster_std(簇数据方差,代表簇的聚合水平)。例子如下:

import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
from sklearn.datasets.samples_generator import make_blobs
# X为样本特征,Y为样本���种别, 共1000个样本,每个样本2个特征,共3个簇,簇中央在[-1,-1], [1,1], [2,2], 簇方差分别为[0.4, 0.5, 0.2]
X, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1,-1], [1,1], [2,2]], cluster_std=[0.4, 0.5, 0.2])
plt.scatter(X[:, 0], X[:, 1], marker='o', c=y)
plt.show()

输出的图如下:

3.4 分组正态分布夹杂数据

    我们用make_gaussian_quantiles天生分组多维正态分布的数据。几个要害参数有n_samples(天生样本数), n_features(正态分布的维数),mean(特征均值), cov(样本协方差的系数), n_classes(数据在正态分布中按分位数分配的组数)。 例子如下:

import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
from sklearn.datasets import make_gaussian_quantiles
#天生2维正态分布,天生的数据按分位数分成3组,1000个样本,2个样本特征均值为1和2,协方差系数为2
X1, Y1 = make_gaussian_quantiles(n_samples=1000, n_features=2, n_classes=3, mean=[1,2],cov=2)
plt.scatter(X1[:, 0], X1[:, 1], marker='o', c=Y1)

输出图如下

【关于云返利网】

云返利网是阿里云、腾讯云、华为云产品推广返利平台,在各个品牌云产品官网优惠活动之外,云返利网还提供返利。您可以无门槛获得阿里云、华为云、腾讯云所有产品返利,在官网下单后就可以领取,无论是自己用、公司用还是帮客户采购,您个人都可以获得返利。云返利网的目标是让返利更多、更快、更简单!详情咨询13121395187(微信同号)