0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

机器学习为什么需要数据预处理

新机器视觉 来源:机器视觉沙龙 2023-08-24 09:20 次阅读

数据预处理是准备原始数据并使其适合机器学习模型的过程。这是创建机器学习模型的第一步也是关键的一步。

创建机器学习项目时,我们并不总是遇到干净且格式化的数据。在对数据进行任何操作时,必须对其进行清理并以格式化的方式进行存储。为此,我们使用数据预处理任务。

为什么我们需要数据预处理?

现实世界的数据通常包含噪声、缺失值,并且可能采用无法直接用于机器学习模型的不可用格式。数据预处理是清理数据并使其适合机器学习模型所需的任务,这也提高了机器学习模型的准确性和效率。

它涉及以下步骤:

获取数据集

导入库

导入数据集

查找丢失的数据

编码分类数据

将数据集拆分为训练集和测试集

特征缩放

1)获取数据集

要创建机器学习模型,我们首先需要的是数据集,因为机器学习模型完全依赖于数据。以适当的格式针对特定问题收集的数据称为数据集。

出于不同的目的,数据集可能具有不同的格式,例如,如果我们想要创建用于商业目的的机器学习模型,那么数据集将与肝脏患者所需的数据集不同。因此每个数据集都不同于另一个数据集。为了在代码中使用数据集,我们通常将其放入 CSV文件中。然而,有时,我们可能还需要使用 HTML 或 xlsx 文件。

什么是 CSV 文件?

CSV 代表“逗号分隔值”文件;它是一种文件格式,允许我们保存表格数据,例如电子表格。它对于巨大的数据集很有用,并且可以在程序中使用这些数据集。

这里我们将使用一个演示数据集进行数据预处理,为了练习,可以从这里下载,“https://www.superdatascience.com/pages/machine-learning。对于实际问题,我们可以在线下载数据集来自各种来源,例如https://www.kaggle.com/uciml/datasets、https://archive.ics.uci.edu/ml/index.php等。

我们还可以通过使用 Python 的各种 API 收集数据来创建数据集,并将该数据放入 .csv 文件中。

2) 导入库

为了使用Python进行数据预处理,我们需要导入一些预定义的Python库。这些库用于执行一些特定的工作。我们将使用三个特定的库来进行数据预处理,它们是:

Numpy:Numpy Python 库用于在代码中包含任何类型的数学运算。它是Python中科学计算的基础包。它还支持添加大型多维数组和矩阵。因此,在 Python 中,我们可以将其导入为:

将 numpy 导入为 nm

这里我们使用了nm,它是 Numpy 的简称,它将在整个程序中使用。

Matplotlib:第二个库是matplotlib,它是一个 Python 2D 绘图库,使用这个库,我们需要导入一个子库pyplot。该库用于在 Python 中为代码绘制任何类型的图表。它将按如下方式导入:

将 matplotlib.pyplot 导入为 mpt

这里我们使用 mpt 作为该库的简称。

Pandas:最后一个库是 Pandas 库,它是最著名的 Python 库之一,用于导入和管理数据集。它是一个开源数据操作和分析库。它将按如下方式导入:

在这里,我们使用 pd 作为该库的简称。考虑下图:

a175275c-4210-11ee-a2ef-92fbcf53809c.png

3)导入数据集

现在我们需要导入为机器学习项目收集的数据集。但在导入数据集之前,我们需要将当前目录设置为工作目录。要在Spyder IDE中设置工作目录,我们需要按照以下步骤操作:

将 Python 文件保存在包含数据集的目录中。

转到 Spyder IDE 中的文件资源管理器选项,然后选择所需的目录。

单击 F5 按钮或运行选项来执行该文件。

注意:我们可以将任何目录设置为工作目录,但它必须包含所需的数据集。

在下图中,我们可以看到 Python 文件以及所需的数据集。现在,当前文件夹被设置为工作目录。

a1876098-4210-11ee-a2ef-92fbcf53809c.png

read_csv() 函数:

现在要导入数据集,我们将使用pandas库的read_csv()函数,用于读取数据集文件并对其执行各种操作。使用此函数,我们可以在本地以及通过 URL 读取 csv 文件。

我们可以使用 read_csv 函数,如下所示:

data_set =  pd .read_csv('数据集.csv')  

这里,data_set是存储数据集的变量名称,在函数内部,我们传递了数据集的名称。一旦我们执行了上面这行代码,它将成功地将数据集导入到我们的代码中。我们还可以通过单击变量资源管理器部分来检查导入的数据集,然后双击data_set。考虑下图:

a1995f0a-4210-11ee-a2ef-92fbcf53809c.png

如上图,索引从0开始,这是Python中默认的索引。我们还可以通过单击格式选项来更改数据集的格式。

提取因变量和自变量:

在机器学习中,区分数据集中的特征矩阵(自变量)和因变量非常重要。在我们的数据集中,有 3 个自变量,即Country、Age和Salary,以及一个因变量Purchasing。

提取自变量:

为了提取自变量,我们将使用Pandas 库的iloc[ ]方法。它用于从数据集中提取所需的行和列。

x =  data_set .iloc[:,:-1].values  

在上面的代码中,第一个冒号(:)用于获取所有行,第二个冒号(:)用于获取所有列。这里我们使用了 :-1,因为我们不想采用最后一列,因为它包含因变量。通过这样做,我们将得到特征矩阵。

通过执行上面的代码,我们将得到如下输出:

[['India' 38.0 68000.0]  
 ['France' 43.0 45000.0]  
 ['Germany' 30.0 54000.0]  
 ['France' 48.0 65000.0]  
 ['Germany' 40.0 nan]  
 ['India' 35.0 58000.0]  
 ['Germany' nan 53000.0]  
 ['France' 49.0 79000.0]  
 ['India' 50.0 88000.0]  
 ['France' 37.0 77000.0]]  

正如我们在上面的输出中看到的,只有三个变量。

提取因变量:

为了提取因变量,我们将再次使用 Pandas .iloc[] 方法。

y =  data_set .iloc[:,3].values  

在这里,我们仅获取了所有行和最后一列。它将给出因变量的数组。

通过执行上面的代码,我们将得到如下输出:

输出:

array(['No', 'Yes', 'No', 'No', 'Yes', 'Yes', 'No', 'Yes', 'No', 'Yes'],
      dtype=object)

数据类型=对象)

注意:如果您使用Python语言进行机器学习,则提取是必需的,但对于R语言则不需要。

4)处理缺失数据:

数据预处理的下一步是处理数据集中缺失的数据。如果我们的数据集包含一些缺失的数据,那么它可能会给我们的机器学习模型带来巨大的问题。因此,有必要处理数据集中存在的缺失值。

处理缺失数据的方法:

处理缺失数据主要有两种方法:

通过删除特定行:第一种方式通常用于处理空值。这样,我们只需删除由空值组成的特定行或列即可。但这种方式效率不高,删除数据可能会导致信息丢失,从而无法给出准确的输出。

通过计算平均值:这样,我们将计算包含任何缺失值的该列或行的平均值,并将其放在缺失值的位置。该策略对于具有年龄、薪水、年份等数字数据的特征非常有用。在这里,我们将使用这种方法。

为了处理缺失值,我们将在代码中使用Scikit-learn库,其中包含用于构建机器学习模型的各种库。这里我们将使用sklearn.preprocessing库的Imputer类。下面是它的代码:

#处理缺失数据(用平均值替换缺失数据)  
从 sklearn.preprocessing 导入 Imputer  
imputer =  Imputer (missing_values  = 'NaN' , 策略= '平均值' , 轴 =  0 )  
#将imputer对象拟合到自变量x。   
imputer imputer = imputer.fit(x[:, 1:3])  
#用计算出的平均值替换缺失数据  
x[:, 1:3]= imputer.transform(x[:, 1:3])  

输出:

array([['India', 38.0, 68000.0],
       ['France', 43.0, 45000.0],
       ['Germany', 30.0, 54000.0],
       ['France', 48.0, 65000.0],
       ['Germany', 40.0, 65222.22222222222],
       ['India', 35.0, 58000.0],
       ['Germany', 41.111111111111114, 53000.0],
       ['France', 49.0, 79000.0],
       ['India', 50.0, 88000.0],
       ['France', 37.0, 77000.0]], dtype=object

正如我们在上面的输出中看到的,缺失值已被替换为其余列值的平均值。

5)编码分类数据:

分类数据是具有某些类别的数据,例如在我们的数据集中;有两个分类变量,Country和Purchasing。

由于机器学习模型完全适用于数学和数字,但如果我们的数据集有分类变量,那么在构建模型时可能会产生麻烦。因此有必要将这些分类变量编码为数字。

对于国家变量:

首先,我们将国家变量转换为分类数据。为此,我们将使用预处理库中的LabelEncoder()类。

#分类数据
#for国家变量
从 sklearn.preprocessing 导入 LabelEncoder  
label_encoder_x =  LabelEncoder ()  
x[:, 0]= label_encoder_x.fit_transform(x[:, 0])  

输出:

Out[15]: 
  array([[2, 38.0, 68000.0],
            [0, 43.0, 45000.0],
         [1, 30.0, 54000.0],
         [0, 48.0, 65000.0],
         [1, 40.0, 65222.22222222222],
         [2, 35.0, 58000.0],
         [1, 41.111111111111114, 53000.0],
         [0, 49.0, 79000.0],
         [2, 50.0, 88000.0],
        [0, 37.0, 77000.0]], dtype=object)

解释:

在上面的代码中,我们导入了sklearn库的LabelEncoder类。此类已成功将变量编码为数字。

但在我们的例子中,有三个国家变量,正如我们在上面的输出中看到的,这些变量被编码为 0、1 和 2。通过这些值,机器学习模型可以假设这些变量之间存在某种相关性。会产生错误输出的变量。因此,为了解决这个问题,我们将使用虚拟编码。

虚拟变量:

虚拟变量是那些值为 0 或 1 的变量。值 1 表示该变量在特定列中的存在,其余变量变为 0。通过虚拟编码,我们将拥有等于类别数的列数。

在我们的数据集中,我们有 3 个类别,因此它将生成具有 0 和 1 值的三列。对于虚拟编码,我们将使用预处理库的OneHotEncoder类。

#for国家变量
从sklearn.preprocessing导入LabelEncoder、OneHotEncoder
label_encoder_x=LabelEncoder()
x[:,0]=label_encoder_x.fit_transform(x[:,0])
#虚拟变量的编码
onehot_encoder=OneHotEncoder(categorical_features=[0])
x=onehot_encoder.fit_transform(x).toarray()

输出:

array([[0.00000000e+00, 0.00000000e+00, 1.00000000e+00, 3.80000000e+01,
        6.80000000e+04],
       [1.00000000e+00, 0.00000000e+00, 0.00000000e+00, 4.30000000e+01,
        4.50000000e+04],
       [0.00000000e+00, 1.00000000e+00, 0.00000000e+00, 3.00000000e+01,
        5.40000000e+04],
       [1.00000000e+00, 0.00000000e+00, 0.00000000e+00, 4.80000000e+01,
        6.50000000e+04],
       [0.00000000e+00, 1.00000000e+00, 0.00000000e+00, 4.00000000e+01,
        6.52222222e+04],
       [0.00000000e+00, 0.00000000e+00, 1.00000000e+00, 3.50000000e+01,
        5.80000000e+04],
       [0.00000000e+00, 1.00000000e+00, 0.00000000e+00, 4.11111111e+01,
        5.30000000e+04],
       [1.00000000e+00, 0.00000000e+00, 0.00000000e+00, 4.90000000e+01,
        7.90000000e+04],
       [0.00000000e+00, 0.00000000e+00, 1.00000000e+00, 5.00000000e+01,
        8.80000000e+04],
       [1.00000000e+00, 0.00000000e+00, 0.00000000e+00, 3.70000000e+01,
        7.70000000e+04]])

正如我们在上面的输出中看到的,所有变量都被编码为数字 0 和 1,并分为三列。

通过单击 x 选项,可以在变量资源管理器部分中更清楚地看到它:

a1bd4eba-4210-11ee-a2ef-92fbcf53809c.png

对于购买的变量:

labelencoder_y =  LabelEncoder ()  


y =  labelencoder_y .fit_transform(y)  

对于第二个分类变量,我们将仅使用LableEncoder类的 labelencoder 对象。这里我们没有使用OneHotEncoder类,因为购买的变量只有 yes 或 no 两个类别,并且自动编码为 0 和 1。

输出:

Out[17]:array([0,1,0,0,1,1,0,1,0,1])

view:

a1cab2d0-4210-11ee-a2ef-92fbcf53809c.png

6)将数据集分为训练集和测试集

在机器学习数据预处理中,我们将数据集分为训练集和测试集。这是数据预处理的关键步骤之一,因为通过这样做,我们可以提高机器学习模型的性能。

假设,如果我们通过数据集对机器学习模型进行训练,并通过完全不同的数据集对其进行测试。那么,这会给我们的模型理解模型之间的相关性带来困难。

如果我们的模型训练得很好,它的训练精度也很高,但是我们给它提供了一个新的数据集,那么它的性能就会下降。因此,我们总是尝试建立一个在训练集和测试数据集上都表现良好的机器学习模型。在这里,我们可以将这些数据集定义为:

a1d84d5a-4210-11ee-a2ef-92fbcf53809c.png

训练集:用于训练机器学习模型的数据集子集,我们已经知道输出。

测试集:用于测试机器学习模型的数据集子集,模型通过使用测试集来预测输出。

为了分割数据集,我们将使用以下代码行:

#从 sklearn.model_selection 导入 train_test_split  


x_train,x_test,y_train,  y_test =  train_test_split (x,y,  test_size =  0 .2,  random_state = 0 )  

解释:

在上面的代码中,第一行用于将数据集数组拆分为随机训练和测试子集。

在第二行中,我们使用了四个变量作为输出:

x_train:训练数据的特征

x_test:测试数据的特征

y_train:训练数据的因变量

y_test:测试数据的自变量

在train_test_split()函数中,我们传递了四个参数,其中前两个用于数据数组,test_size用于指定测试集的大小。test_size 可能是 0.5、.3 或 .2,它告诉我们训练集和测试集的划分比例。

最后一个参数random_state用于设置随机生成器的种子,以便始终得到相同的结果,最常用的值为 42。

输出:

通过执行上面的代码,我们将得到4个不同的变量,可以在变量资源管理器部分看到。

a1eb628c-4210-11ee-a2ef-92fbcf53809c.png

正如我们在上图中看到的,x 和 y 变量被分为 4 个具有相应值的不同变量。

7) 特征缩放

特征缩放是机器学习中数据预处理的最后一步。它是一种将数据集的自变量标准化在特定范围内的技术。在特征缩放中,我们将变量放在相同的范围和相同的比例中,以便没有任何变量支配其他变量。

考虑以下数据集:

a20293ee-4210-11ee-a2ef-92fbcf53809c.png

正如我们所看到的,年龄和薪水列值不在同一范围内。机器学习模型基于欧几里德距离,如果我们不缩放变量,那么它将在我们的机器学习模型中引起一些问题。

欧几里德距离给出为:

a21445bc-4210-11ee-a2ef-92fbcf53809c.png

如果我们根据年龄和薪水计算任意两个值,那么薪水值将主导年龄值,并且会产生不正确的结果。因此,为了解决这个问题,我们需要对机器学习进行特征缩放。

机器学习中有两种执行特征缩放的方法:

标准化

a223fad4-4210-11ee-a2ef-92fbcf53809c.png

正常化

a2348f34-4210-11ee-a2ef-92fbcf53809c.png

在这里,我们将对数据集使用标准化方法。

对于特征缩放,我们将导入sklearn.preprocessing库的StandardScaler类:

从 sklearn.preprocessing 导入 StandardScaler

现在,我们将为自变量或特征创建StandardScaler类的对象。然后我们将拟合和转换训练数据集。

st_x = 标准缩放器()  


x_train =  st_x .fit_transform(x_train)  

对于测试数据集,我们将直接应用transform()函数而不是fit_transform(),因为它已经在训练集中完成了。

x_test =  st_x .transform(x_test)  

输出:

通过执行上面的代码行,我们将得到 x_train 和 x_test 的缩放值:

x_train:

a2466b46-4210-11ee-a2ef-92fbcf53809c.png

x_test:

a250c758-4210-11ee-a2ef-92fbcf53809c.png

正如我们在上面的输出中看到的,所有变量都在值 -1 到 1 之间缩放。

注意:这里,我们没有缩放因变量,因为只有两个值 0 和 1。但是如果这些变量有更多的值范围,那么我们还需要缩放这些变量。

结合所有步骤:

现在,最后,我们可以将所有步骤组合在一起,使完整的代码更容易理解。

# 导入库  


将 numpy 导入为 nm  


将 matplotlib.pyplot 导入为 mtp  


将 pandas 导入为 pd  


  


#导入数据集  


data_set =  pd .read_csv('数据集.csv')  


  


#提取自变量  


x =  data_set .iloc[:, :-1].values  


  


#提取因变量  


y =  data_set .iloc[:, 3].values  


  


#处理缺失数据(用平均值替换缺失数据)  


从 sklearn.preprocessing 导入 Imputer  


imputer =  Imputer (missing_values  = 'NaN' , 策略= '平均值' , 轴 =  0 )  


  


#将输入对象拟合到独立变量x。   


imputer imputer = imputer.fit(x[:, 1:3])  


  


#用计算出的平均值替换缺失数据  


x[:, 1:3]= imputer.transform(x[:, 1:3])  


  


#for 国家变量  


从 sklearn.preprocessing 导入 LabelEncoder、OneHotEncoder  


label_encoder_x =  LabelEncoder ()  


x[:, 0]= label_encoder_x.fit_transform(x[:, 0])  


  


#虚拟变量的编码  


onehot_encoder =  OneHotEncoder ( categorical_features = [0])    


x =  onehot_encoder .fit_transform(x).toarray()  


  


#购买变量的编码  


labelencoder_y =  LabelEncoder ()  


y =  labelencoder_y .fit_transform(y)  


  


# 将数据集分为训练集和测试集。  


从 sklearn.model_selection 导入 train_test_split  


x_train,x_test,y_train,  y_test =  train_test_split (x,y,  test_size =  0 .2,  random_state = 0 )  


  


#数据集的特征缩放  


从 sklearn.preprocessing 导入 StandardScaler  


st_x = 标准缩放器()  


x_train =  st_x .fit_transform(x_train)  


x_test =  st_x .transform(x_test)  

在上面的代码中,我们将所有数据预处理步骤包含在一起。但有些步骤或代码行并不是所有机器学习模型都必需的。因此,我们可以将它们从我们的代码中排除,使其可重用于所有模型。

审核编辑:彭菁

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据
    +关注

    关注

    8

    文章

    7017

    浏览量

    89005
  • 模型
    +关注

    关注

    1

    文章

    3241

    浏览量

    48832
  • 代码
    +关注

    关注

    30

    文章

    4787

    浏览量

    68569
  • 机器学习
    +关注

    关注

    66

    文章

    8416

    浏览量

    132616
  • python
    +关注

    关注

    56

    文章

    4796

    浏览量

    84664

原文标题:机器学习中的数据预处理

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    机器学习的任务:从学术论文中学习数据预处理

    作为工作中最关键的部分,数据预处理同时也是大多数数据科学家耗时最长的项目,他们大约80%的时间花在这上面。
    的头像 发表于 07-01 09:37 2864次阅读
    <b class='flag-5'>机器</b><b class='flag-5'>学习</b>的任务:从学术论文中<b class='flag-5'>学习</b><b class='flag-5'>数据</b><b class='flag-5'>预处理</b>

    常用python机器学习库盘点

    包括6个方面:分类,回归,聚类,数据降维,模型选择和数据预处理,这里面的包含了大量的算法,需要具备一定的数学基础。
    发表于 05-10 15:20

    Python数据预处理方法

    机器学习-Python实践Day3(特征工程--数据预处理2)
    发表于 06-03 15:55

    数据探索与数据预处理

    目录1数据探索与数据预处理21.1 赛题回顾21.2 数据探索性分析与异常值处理21.3 相关性分析52特征工程82.1 光伏发电领域特征8
    发表于 07-12 08:37

    使用Bionconductor完成基因芯片预处理的流程

    的整体框架,自行学习其他厂商或种类(例如SNP芯片或CHIP-chip芯片)的芯片处理方法5.1快速入门例5-1 从数据包CLL中载入芯片数据,完成
    发表于 07-23 07:38

    C预处理与C语言基本数据类型

    嵌入式系统设计师学习笔记二十九:嵌入式程序设计④——C预处理预处理指令表:(编码规范:GB/T 28169-2011)关于宏定义 #denfine 详解可点击连接查看博主的另一篇文章 预定义宏
    发表于 12-21 08:29

    机器语言的预处理与编译功能怎样

    什么是机器语言呢?机器语言的预处理与编译功能怎样?
    发表于 01-19 06:41

    如何构建检测信用卡诈骗的机器学习模型?

    对信用卡交易数据建立检测模型,使用Python库进行预处理机器学习建模工作,代码通俗易懂。包括数据预处
    的头像 发表于 10-04 09:44 3107次阅读

    机器学习的特征预处理问题讨论

    本文我们来讨论特征预处理的相关问题。主要包括特征的归一化和标准化,异常特征样本清洗与样本数据不平衡问题的处理
    的头像 发表于 03-15 17:14 906次阅读

    Python数据清洗和预处理入门完整指南

    凡事预则立,不预则废,训练机器学习模型也是如此。数据清洗和预处理是模型训练之前的必要过程,否则模型可能就「废」了。本文是一个初学者指南,将带你领略如何在任意的
    的头像 发表于 12-21 13:50 880次阅读

    什么是大数据采集和预处理

    一般情况下,大数据处理的流程为:数据采集和预处理数据存储、数据分析和数据可视化。
    的头像 发表于 02-15 14:22 4079次阅读

    PyTorch教程-2.2.数据预处理

    到目前为止,我们一直在处理以现成张量形式到达的合成数据。然而,要在野外应用深度学习,我们必须提取以任意格式存储的杂乱数据,并对其进行预处理
    的头像 发表于 06-02 09:34 573次阅读

    PyTorch教程之数据预处理

    电子发烧友网站提供《PyTorch教程之数据预处理.pdf》资料免费下载
    发表于 06-02 14:11 0次下载
    PyTorch教程之<b class='flag-5'>数据</b><b class='flag-5'>预处理</b>

    数据预处理和特征工程的常用功能

    机器学习最基础的5个流程,分别是数据获取,数据预处理,特征工程,建模、测试和预测,上线与部署。
    的头像 发表于 01-25 11:26 753次阅读

    机器学习中的数据预处理与特征工程

    机器学习的整个流程中,数据预处理与特征工程是两个至关重要的步骤。它们直接决定了模型的输入质量,进而影响模型的训练效果和泛化能力。本文将从数据
    的头像 发表于 07-09 15:57 409次阅读