深度学习——实战Kaggle比赛:预测房价

深度学习——实战Kaggle比赛:预测房价

文章目录

  • 前言
  • 一、Kaggle初识
    • 1.1. 注册Kaggle账号
    • 1.2. 进入房价预测比赛页面
  • 二、预测房价实战
    • 2.1. 下载和缓存数据集
    • 2.2. 访问和读取数据
    • 2.3. 数据预处理
    • 2.4. 训练
    • 2.5. K折交叉验证
    • 2.6. 模型选择
    • 2.7. 提交Kaggle预测
  • 总结


前言

经过前面两章理论知识的摧残后,终于到了最期待的实战环节了,本章将记录一下实战Kaggle比赛:预测房价。

参考书:
《动手学深度学习》


一、Kaggle初识

1.1. 注册Kaggle账号

我开始直接在电脑的网页上搜索,想要用邮箱注册:
结果发现行不通(没有那个进行人机身份验证)。

在这里插入图片描述

在网上参考了这篇文章:
解决kaggle邮箱注册时无法发送验证码的问题
我就用我自己的手机试了一下,发现可以(不太明白为什么):

在这里插入图片描述

在个人账户那里,还有个手机号码验证

在这里插入图片描述

最后我重新返回电脑的网页,用在手机上注册的来登录,成功登录:

在这里插入图片描述

1.2. 进入房价预测比赛页面

https://www.kaggle.com/c/house-prices-advanced-regression-techniques

在这里插入图片描述
下载数据:
在这里插入图片描述

二、预测房价实战

此数据集由Bart de Cock于2011年收集 :cite:De-Cock.2011,
涵盖了2006-2010年期间亚利桑那州埃姆斯市的房价。 这个数据集是相当通用的,不会需要使用复杂模型架构。
它比哈里森和鲁宾菲尔德的波士顿房价 数据集要大得多,也有更多的特征。

2.1. 下载和缓存数据集

这里我们(实现几个函数来方便下载数据)。 首先,我们建立字典DATA_HUB, 它可以将数据集名称的字符串映射到数据集相关的二元组上, 这个二元组包含数据集的url和验证文件完整性的sha-1密钥。 所有类似的数据集都托管在地址为DATA_URL的站点上。

import hashlib
import os
import tarfile
import zipfileimport numpy as np
import requests
import torch
from d2l import torch as d2l
from torch import nn# @save
DATA_HUB = dict()
DATA_URL = 'http://d2l-data.s3-accelerate.amazonaws.com/'"""
下面的download函数用来下载数据集, 将数据集缓存在本地目录(默认情况下为../data)中, 并返回下载文件的名称。 
如果缓存目录中已经存在此数据集文件,并且其sha-1与存储在DATA_HUB中的相匹配, 我们将使用缓存的文件,以避免重复的下载。
"""def download(name, cache_dir=os.path.join("..", "data")):  # @save""" 下载一个DATA_HUB中的文件,返回本地文件名"""assert name in DATA_HUB, f"{name}不存在于{DATA_HUB}"  # 断言url, sha1_hash = DATA_HUB[name]os.makedirs(cache_dir, exist_ok=True)fname = os.path.join(cache_dir, url.split("/")[-1])  # 获取文件名if os.path.exists(fname):sha1 = hashlib.sha1()with open(fname, 'rb') as f:  # 以二进制只读模式打开文件while True:data = f.read(1048576)  # 1048576 是一个数值常量,表示每次从文件中读取的字节数;从文件对象f中读取1MB的数据,并将其存储到变量data中if not data:breaksha1.update(data)if sha1.hexdigest() == sha1_hash:  # 计算其 SHA1 校验码并与预期的 sha1_hash 进行比较return fname  # 如果一致,则直接返回文件名,表示命中缓存print(f"正在从{url}下载{fname}...")  # 如果没有命中缓存,打印下载信息r = requests.get(url, stream=True, verify=True)  # 获取文件内容,并将其写入本地文件 fname 中。with open(fname, "wb") as f:f.write(r.content)return fname  # 返回本地文件名,表示下载完成。"""
我们还需实现两个实用函数: 一个将下载并解压缩一个zip或tar文件,
另一个是将本书中使用的所有数据集从DATA_HUB下载到缓存目录中
"""# folder 是一个可选参数,表示要将文件解压到哪个文件夹中。
def download_extract(name, folder=None):  # @save"""下载并解压zip/tar文件"""fname = download(name)base_dir = os.path.dirname(fname)  # 获取 fname 的目录名data_dir, ext = os.path.splitext(fname)"""获取 fname 的扩展名,并将其存储在变量 ext 中。同时,也获取了文件名不包含扩展名的部分,并将其存储在 data_dir 变量中。"""if ext == ".zip":  # 根据文件扩展名选择使用模块打开文件,并将文件对象存储在 fp 变量中。fp = zipfile.ZipFile(fname, "r")elif ext in (".tar", ".gz"):fp = tarfile.open(fname, "r")else:assert False, "只有zip/tar文件可以被压缩"fp.extractall(base_dir)  # 将文件解压缩到指定目录中return os.path.join(base_dir, folder) if folder else data_dir# 如果传入了 folder 参数,则返回指定目录下的路径。否则,返回原始文件名(不包含扩展名)所在的目录# 用于下载 DATA_HUB 中所有的文件
def download_all():  # @save"""下载DATA_HUB中的所有文件"""for name in DATA_HUB:download(name)

2.2. 访问和读取数据

为方便起见,我们可以使用上面定义的脚本下载并缓存Kaggle房屋数据集。(也可以直接从官网下载)


import pandas as pd"""
访问和读取数据
"""
DATA_HUB['kaggle_house_train'] = (  #@saveDATA_URL + 'kaggle_house_pred_train.csv','585e9cc93e70b39160e7921475f9bcd7d31219ce')DATA_HUB['kaggle_house_test'] = (  #@saveDATA_URL + 'kaggle_house_pred_test.csv','fa19780a7b011d9b009e8bff8e99922a8ee2eb90')train_data = pd.read_csv(download('kaggle_house_train'))
test_data = pd.read_csv(download('kaggle_house_test'))#训练数据集包括1460个样本,每个样本80个特征和1个标签, 而测试数据集包含1459个样本,每个样本80个特征。
print(train_data.shape)
print(test_data.shape)#让我们看看[前四个和最后两个特征,以及相应标签](房价)。
print(train_data.iloc[0:4, [0, 1, 2, 3, -3, -2, -1]])#移除第一列ID值以及最后的标签值,只获取所有特征列
all_features = pd.concat((train_data.iloc[:,1:-1],test_data.iloc[:,1:]))

在这里插入图片描述

2.3. 数据预处理

首先,我们[将所有缺失的值替换为相应特征的平均值。然后,为了将所有特征放在一个共同的尺度上, 我们通过将特征重新缩放到零均值和单位方差来标准化数据

接下来,我们处理离散值。 这包括诸如“MSZoning”之类的特征。 (我们用独热编码替换它们)
根据独热编码,如果“MSZoning”的原始值为“RL”, 则:“MSZoning_RL”为1,“MSZoning_RM”为0

可以看到此转换会将特征的总数量从79个增加到331个。 最后,通过values属性,我们可以 [从pandas格式中提取NumPy格式,并将其转换为张量表示]用于训练。

房价就像股票价格一样,我们关心的是相对数量,而不是绝对数量。
因此,我们更关心相对误差 y − y ^ y \frac{y - \hat{y}}{y} yyy^ 而不是绝对误差 y − y ^ y - \hat{y} yy^
例如,如果我们在俄亥俄州农村地区估计一栋房子的价格时,
假设我们的预测偏差了10万美元,然而那里一栋典型的房子的价值是12.5万美元,那么模型可能做得很糟糕。
另一方面,如果我们在加州豪宅区的预测出现同样的10万美元的偏差,(在那里,房价中位数超过400万美元)这可能是一个不错的预测。

解决这个问题的一种方法是用价格预测的对数来衡量差异
事实上,这也是比赛中官方用来评价提交质量的误差指标。
即将满足 ∣ log ⁡ y − log ⁡ y ^ ∣ ≤ δ |\log y - \log \hat{y}| \leq \delta logylogy^δ δ \delta δ 转换为 e − δ ≤ y ^ y ≤ e δ e^{-\delta} \leq \frac{\hat{y}}{y} \leq e^\delta eδyy^eδ

这使得预测价格的对数与真实标签价格的对数之间出现以下均方根误差(rmse):

1 n ∑ i = 1 n ( log ⁡ y i − log ⁡ y ^ i ) 2 . \sqrt{\frac{1}{n}\sum_{i=1}^n\left(\log y_i -\log \hat{y}_i\right)^2}. n1i=1n(logyilogy^i)2 .

"""
数据预处理
"""
# 先对数值型数据标准化
numeric_features = all_features.dtypes[all_features.dtypes != 'object'].index
all_features[numeric_features] = all_features[numeric_features].apply(lambda x: (x - x.mean()) / (x.std())
)
# 标准化后,所有均值为0,因此我们可以将缺失值设置为0
all_features[numeric_features] = all_features[numeric_features].fillna(0)# 接下来则是处理离散值(包括诸如“MSZoning”之类的特征,用独热编码替换它们)
# “Dummy_na=True”将“na”(缺失值)视为有效的特征值,并为其创建指示符特征
all_features = pd.get_dummies(all_features, dummy_na=True, dtype=np.float32)
#print(all_features.shape)# 通过values属性,可以从pandas格式中提取NumPy格式,并将其转换为张量表示用于训练。
n_train = train_data.shape[0]
train_features = torch.tensor(all_features[:n_train].values, dtype=torch.float32)
test_features = torch.tensor(all_features[n_train:].values, dtype=torch.float32)
train_labels = torch.tensor(train_data.SalePrice.values.reshape(-1, 1), dtype=torch.float32)
print(train_features.shape)
print(train_features)#结果:
torch.Size([1460, 330])
tensor([[ 0.0673, -0.1844, -0.2178,  ...,  1.0000,  0.0000,  0.0000],[-0.8735,  0.4581, -0.0720,  ...,  1.0000,  0.0000,  0.0000],[ 0.0673, -0.0559,  0.1372,  ...,  1.0000,  0.0000,  0.0000],...,[ 0.3025, -0.1416, -0.1428,  ...,  1.0000,  0.0000,  0.0000],[-0.8735, -0.0559, -0.0572,  ...,  1.0000,  0.0000,  0.0000],[-0.8735,  0.2439, -0.0293,  ...,  1.0000,  0.0000,  0.0000]])

2.4. 训练

首先,我们训练一个带有损失平方的线性模型。 显然线性模型很难让我们在竞赛中获胜,但线性模型提供了一种健全性检查,以查看数据中是否存在有意义的信息。
如果我们在这里不能做得比随机猜测更好,那么我们很可能存在数据处理错误。
如果一切顺利,线性模型将作为基线(baseline)模型, 让我们直观地知道最好的模型有超出简单的模型多少。

# 训练:
loss = nn.MSELoss()
in_features = train_features.shape[1]def get_net():net = nn.Sequential(nn.Linear(in_features, 1))return net# 房价就像股票价格一样,我们关心的是相对数量,而不是绝对数量
# 我们更关心相对误差:(y_true-y_pre) / y_truedef log_rmse(net, features, labels):# 为了在取对数时进一步稳定该值,将小于1的值设置为1clipped_pred = torch.clamp(net(features), 1, float("inf"))rmse = torch.sqrt(loss(torch.log(clipped_pred), torch.log(labels)))return rmse.item()# 与前面的部分不同,我们的训练函数将借助Adam优化器
# Adam优化器的主要吸引力在于它对初始学习率不那么敏感。def train(net, train_features, train_labels, test_features, test_labels,num_epochs, lr, weight_decay, batch_size):train_ls, test_ls = [], []train_iter = d2l.load_array((train_features, train_labels), batch_size)# 使用Adam优化算法:optimizer = torch.optim.Adam(net.parameters(),lr=lr,weight_decay=weight_decay)for epoch in range(num_epochs):for X, y in train_iter:optimizer.zero_grad()l = loss(net(X), y)l.backward()optimizer.step()train_ls.append(log_rmse(net, train_features, train_labels))if test_labels is not None:test_ls.append(log_rmse(net, test_features, test_labels))return train_ls, test_ls

2.5. K折交叉验证

# K折交叉验证, 它有助于模型选择和超参数调整(选择第i个切片作为验证数据,其余部分作为训练数据)
def get_k_fold_data(k, i, X, y):assert k > 1fold_size = X.shape[0] // kX_train, y_train = None, Nonefor j in range(k):idx = slice(j * fold_size, (j + 1) * fold_size)x_part, y_part = X[idx,:], y[idx]if j == i:x_valid, y_valid = x_part, y_partelif X_train is None:X_train, y_train = x_part, y_partelse:X_train = torch.cat([X_train, x_part], 0)y_train = torch.cat([y_train, y_part], 0)return X_train, y_train, x_valid, y_valid# 当我们在K折交叉验证中训练K次后,返回训练和验证误差的平均值。
def k_fold(k, X_train, y_train, num_epochs, learning_rate, weight_decay,batch_size):train_l_sum, valid_l_sum = 0, 0for i in range(k):data = get_k_fold_data(k, i, X_train, y_train)net = get_net()train_ls, valid_ls = train(net, *data, num_epochs, learning_rate,weight_decay, batch_size)train_l_sum += train_ls[-1]valid_l_sum += valid_ls[-1]if i == 0:d2l.plot(list(range(1, num_epochs + 1)), [train_ls, valid_ls],xlabel='epoch', ylabel='rmse', xlim=[1, num_epochs],legend=['train', 'valid'], yscale='log')print(f'折{i + 1},训练log rmse{float(train_ls[-1]):f}, 'f'验证log rmse{float(valid_ls[-1]):f}')return train_l_sum / k, valid_l_sum / k

2.6. 模型选择

# 模型选择;
k, num_epochs, lr, weight_decay, batch_size = 5, 100, 7, 0, 64
train_l, valid_l = k_fold(k, train_features, train_labels, num_epochs, lr,weight_decay, batch_size)
print(f'{k}-折验证: 平均训练log rmse: {float(train_l):f}, 'f'平均验证log rmse: {float(valid_l):f}')d2l.plt.show()"""
既然我们知道应该选择什么样的超参数, 我们不妨使用所有数据对其进行训练 (而不是仅使用交叉验证中使用的1−1/K的数据)。
然后,我们通过这种方式获得的模型可以应用于测试集。 将预测保存在CSV文件中可以简化将结果上传到Kaggle的过程。
"""def train_and_pred(train_features, test_features, train_labels, test_data,num_epochs, lr, weight_decay, batch_size):net = get_net()train_ls, _ = train(net, train_features, train_labels, None, None,num_epochs, lr, weight_decay, batch_size)d2l.plot(np.arange(1, num_epochs + 1), [train_ls], xlabel='epoch',ylabel='log rmse', xlim=[1, num_epochs], yscale='log')print(f'训练log rmse:{float(train_ls[-1]):f}')# 将网络应用于测试集。preds = net(test_features).detach().numpy()# 将其重新格式化以导出到Kaggletest_data['SalePrice'] = pd.Series(preds.reshape(1, -1)[0])submission = pd.concat([test_data['Id'], test_data['SalePrice']], axis=1)submission.to_csv('submission.csv', index=False)# 如果测试集上的预测与K倍交叉验证过程中的预测相似, 那就是时候把它们上传到Kaggle了。
# 下面的代码将生成一个名为submission.csv的文件。
train_and_pred(train_features, test_features, train_labels, test_data,num_epochs, lr, weight_decay, batch_size)# d2l.plt.style.use("ggplot")
d2l.plt.show()#结果:1,训练log rmse0.163011, 验证log rmse0.1550252,训练log rmse0.155532, 验证log rmse0.1854283,训练log rmse0.156310, 验证log rmse0.1596954,训练log rmse0.161521, 验证log rmse0.1529445,训练log rmse0.157828, 验证log rmse0.179974
5-折验证: 平均训练log rmse: 0.158840, 平均验证log rmse: 0.166613
训练log rmse:0.150134

在这里插入图片描述

在这里插入图片描述

2.7. 提交Kaggle预测

接下来, 我们可以提交预测到Kaggle上,并查看在测试集上的预测与实际房价(标签)的比较情况。

  1. 首先访问房价预测竞赛页面,加入竞赛

  2. 然后单击“Submit Predictions",提交结果
    在这里插入图片描述

在这里插入图片描述

  1. 看一下评分结果:(直接看排名,不太懂评分标准)

在这里插入图片描述


总结

本章跟着书中的操作复现了一遍,书中的代码的许多函数都是从零开始构建,跟之前学的直接引用模块中的函数不太一样。本章记录了如何加入一个Kaggle比赛,提交结果。在这个项目实战中,感觉就是用了很简单的线性模型(简单的了解了一下整个大概流程),从数据预处理到训练再到后面的参数调整。

寂兮寥兮,独立而不改,周行而不殆,可以为天下母。

–2023-10-5 进阶篇

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/149851.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Unicode与UTF-8

软件开发中乱码问题经常遇到,Unicode,UTF-8, ASCII等都是高频词语,不过具体是啥意思其实都不清楚。这个周末研究了一下,略有了解,记录一下。 Unicode Unicode本身是纯理论的东西,和具体计算机实现无关。它…

【数据库——MySQL】(15)存储过程、存储函数和事务处理习题及讲解

目录 1. 题目1.1 存储过程1.2 存储函数1.3 事务处理 2. 解答2.1 存储过程2.2 存储函数2.3 事务处理 1. 题目 1.1 存储过程 创建表 RandNumber :字段:id 自增长, data int; 创建存储过程向表中插入指定个数的随机数(1-…

Godot 官方2D游戏笔记(1):导入动画资源和添加节点

前言 Godot 官方给了我们2D游戏和3D游戏的案例,不过如果是独立开发者只用考虑2D游戏就可以了,因为2D游戏纯粹,我们只需要关注游戏的玩法即可。2D游戏的美术素材简单,交互逻辑简单,我们可以把更多的时间放在游戏的玩法…

局部放电发生因素与局部放电试验的重要性

局部放电发生的几个因素:   ①电场过于集中于某点;   ②固体介质有气泡,有害杂质未除净;   ③油中含水、含气、有悬浮微粒;   ④不同的介质组合中,在界面处有严重的电场畸变。   局部放电试验的重…

用VLD调查VC内存泄漏

一、发现内存泄漏 使用VS2022&#xff0c;发现提示有内存泄漏&#xff0c;检查了所有的new&#xff0c;确认都有相应的delete释放。 Detected memory leaks! Dumping objects -> {1914} normal block at 0x0000021FDFFBD2E0, 48 bytes long.Data: < >…

七、【套索工具组】

文章目录 套索工具多边形套索工具磁性套索工具 套索工具 如下图&#xff0c;以我们抠图为例&#xff0c;当我们选用套索工具选中一块区域后&#xff0c;然后按ShiftF5调出填充工具菜单&#xff0c;然后再选中内容识别&#xff0c;就可以去掉该区域&#xff1a; 那么如何做到加…

机器学习:随机森林

集成学习 集成学习&#xff08;Ensemble Learning&#xff09;是一种机器学习方法&#xff0c;通过将多个基本学习算法的预测结果进行组合&#xff0c;以获得更好的预测性能。集成学习的基本思想是通过结合多个弱分类器或回归器的预测结果&#xff0c;来构建一个更强大的集成模…

【redis学习笔记】缓存

redis主要的三个应用场景 存储数据缓存消息队列&#xff08;redis本来是设计用来作为消息队列的&#xff09; redis常用作mysql的缓存 因为MySQL等数据库&#xff0c;效率比较低&#xff0c;所以承担的并发量就有限。一旦请求数量多了&#xff0c;数据库的压力就会很大&#…

字符串和内存函数

目录 strlen 模拟实现 长度不受限字符串函数 strcpy 模拟实现 ​编辑 strcat 模拟实现 strcmp 模拟实现 长度受限字符串函数 strncpy 模拟实现 strncat strncmp strstr 模拟实现 strtok strerror perror 字符分类函数 字符转换 示例&#xff1a; ​编辑内…

Android SurfaceFlinger导读(04)理解BufferQueue

该系列文章总纲链接&#xff1a;Android GUI系统之SurfaceFlinger 系列文章目录 说明&#xff1a; 关于导读&#xff1a;导读部分主要是方便初学者理解SurfaceFlinger代码中的机制&#xff0c;为后面分析代码打下一个更好的基础&#xff0c;这样就可以把更多的精力放在surfac…

不死马的利用与克制(基于条件竞争)及变种不死马

不死马即内存马&#xff0c;它会写进进程里&#xff0c;并且无限地在指定目录中生成木马文件 这里以PHP不死马为例 测试代码&#xff1a; <?phpignore_user_abort(true);set_time_limit(0);unlink(__FILE__);$file .test.php;$code <?php if(md5($_GET["pass…

项目规划得心应手:Plane 助你打造高效能团队 | 开源日报 No.48

streamlit/streamlit Stars: 27.5k License: Apache-2.0 Streamlit 是一个快速构建和共享数据应用程序的方法。它可以将数据脚本转换为可分享的 Web 应用&#xff0c;只需几分钟即可完成。该项目完全由 Python 编写&#xff0c;开源且免费&#xff01;一旦创建了一个应用程序&…

竞赛 深度学习 opencv python 公式识别(图像识别 机器视觉)

文章目录 0 前言1 课题说明2 效果展示3 具体实现4 关键代码实现5 算法综合效果6 最后 0 前言 &#x1f525; 优质竞赛项目系列&#xff0c;今天要分享的是 &#x1f6a9; 基于深度学习的数学公式识别算法实现 该项目较为新颖&#xff0c;适合作为竞赛课题方向&#xff0c;学…

notion + nextjs搭建博客

SaaS可以通过博客来获得SEO流量&#xff0c;之前我自己在nextjs上&#xff0c;基于MarkDown Cloudfare来构建博客&#xff0c;很快我就了解到更优雅的方案&#xff1a;notion nextjs搭建博客&#xff0c;之前搭建了过&#xff0c;没有记录&#xff0c;这次刚好又要弄&#xf…

算法题:分发饼干

这个题目是贪心算法的基础练习题&#xff0c;解决思路是排序双指针谈心法&#xff0c;先将两个数组分别排序&#xff0c;优先满足最小胃口的孩子。&#xff08;本题完整题目附在了最后面&#xff09; 代码如下&#xff1a; class Solution(object):def findContentChildren(se…

[笔记] Windows内核课程:保护模式《二》段寄存器介绍

文章目录 前言1、什么是段寄存器? 有哪些 ?2. 段寄存器的结构 前言 段寄存器&#xff0c;页寄存器 1、什么是段寄存器? 有哪些 ? 当我们用汇编读写某一个地址时: mov dword ptr ds:[0x123456],eax我们真正读写的地址是: ds.base 0x123456ES、CS、SS、DS、FS、GS、LDTR…

云原生边缘计算KubeEdge安装配置

1. K8S集群部署&#xff0c;可以参考如下博客 请安装k8s集群&#xff0c;centos安装k8s集群 请安装k8s集群&#xff0c;ubuntu安装k8s集群 2.安装kubEedge 2.1 编辑kube-proxy使用ipvs代理 kubectl edit configmaps kube-proxy -n kube-system #修改kube-proxy#大约在40多行…

华为云云耀云服务器L实例评测|SpringCloud相关组件——nacos和sentinel的安装和配置 运行内存情况 服务器被非法登陆尝试的解决

前言 最近华为云云耀云服务器L实例上新&#xff0c;也搞了一台来玩&#xff0c;期间遇到各种问题&#xff0c;在解决问题的过程中学到不少和运维相关的知识。 本篇博客介绍SpringCloud相关组件——nacos和sentinel的安装和配置&#xff0c;并分析了运行内存情况&#xff0c;此…

RHCE---作业2

文章目录 目录 文章目录 一.远程连接服务器 二.基于域名和虚目录建立网站 一.远程连接服务器 配置 ssh 免密登陆&#xff1a;客户端主机通过 redhat 用户基于秘钥验证方式进行远程连接服务器的 root 用户 #服务端关闭防火墙 [roottimeserver ~]# systemctl disable --now fir…

Spring的事务控制

基于AOP的声明事务控制 Spring事务编程概述 事务是开发过程中必不可少的东西&#xff0c;使用JDBC开发时&#xff0c;我们使用connection对事务进行控制&#xff0c;使用MyBatis时&#xff0c;我们使用SqlSession对事物进行控制&#xff0c;缺点显而易见&#xff0c;当我们切…