PyTorch 深度学习实战(2):Autograd 自动求导与线性回归
liuian 2025-05-08 19:41 27 浏览
在上一篇文章中,我们学习了 PyTorch 的基本概念和张量操作。本文将深入探讨 PyTorch 的核心特性之一——Autograd 自动求导机制,并利用它实现一个简单的线性回归模型。
一、Autograd 自动求导
在深度学习中,模型的训练依赖于梯度下降法,而梯度的计算是其中的关键步骤。PyTorch 提供了 Autograd 模块,能够自动计算张量的梯度,极大地简化了梯度计算的过程。
1. 什么是 Autograd?
Autograd 是 PyTorch 的自动微分引擎,它能够自动计算张量的梯度。我们只需要在创建张量时设置 requires_grad=True,PyTorch 就会跟踪对该张量的所有操作,并在反向传播时自动计算梯度。
2. 如何使用 Autograd?
下面通过一个简单的例子来说明 Autograd 的使用方法。
import torch
# 创建一个张量并设置 requires_grad=True 以跟踪计算
x = torch.tensor(2.0, requires_grad=True)
# 定义一个函数 y = x^2 + 3x + 1
y = x**2 + 3*x + 1
# 自动计算梯度
y.backward()
# 查看 x 的梯度
print("x 的梯度:", x.grad)
运行结果:
x 的梯度: tensor(7.)
代码解析:
- 我们创建了一个标量张量 x,并设置 requires_grad=True。
- 定义了一个函数 y = x^2 + 3x + 1。
- 调用 y.backward() 计算 y 对 x 的梯度。
- 通过 x.grad 查看梯度值。
3. 链式法则
Autograd 支持链式法则,能够处理复杂的函数组合。例如:
# 创建两个张量
x = torch.tensor(2.0, requires_grad=True)
y = torch.tensor(3.0, requires_grad=True)
# 定义一个函数 z = x^2 * y + y^2
z = x**2 * y + y**2
# 自动计算梯度
z.backward()
# 查看 x 和 y 的梯度
print("x 的梯度:", x.grad)
print("y 的梯度:", y.grad)
运行结果:
x 的梯度: tensor(12.)
y 的梯度: tensor(13.)
二、线性回归实战
线性回归是机器学习中最简单的模型之一,它的目标是找到一条直线,使得预测值与真实值之间的误差最小。下面我们用 PyTorch 实现一个线性回归模型。
1. 问题描述
假设我们有一组数据点 (x, y),其中 y = 2x + 1 + 噪声。我们的目标是找到一条直线 y = wx + b,使得预测值与真实值之间的误差最小。
2. 实现步骤
- 生成数据集。
- 定义模型参数 w 和 b。
- 定义损失函数(均方误差)。
- 使用梯度下降法更新参数。
- 训练模型并可视化结果。
3. 代码实现
import torch
import matplotlib.pyplot as plt
# 设置 Matplotlib 支持中文显示
plt.rcParams['font.sans-serif'] = ['SimHei'] # 设置字体为 SimHei(黑体)
plt.rcParams['axes.unicode_minus'] = False # 解决负号显示问题
# 1. 生成数据集
torch.manual_seed(42) # 设置随机种子以保证结果可复现
x = torch.linspace(0, 10, 100).reshape(-1, 1)
y = 2 * x + 1 + torch.randn(x.shape) * 2 # y = 2x + 1 + 噪声
# 2. 定义模型参数
w = torch.tensor(0.0, requires_grad=True)
b = torch.tensor(0.0, requires_grad=True)
# 3. 定义损失函数(均方误差)
def loss_fn(y_pred, y_true):
return torch.mean((y_pred - y_true) ** 2)
# 4. 训练模型
learning_rate = 0.01
num_epochs = 100
loss_history = []
for epoch in range(num_epochs):
# 前向传播:计算预测值
y_pred = w * x + b
# 计算损失
loss = loss_fn(y_pred, y)
loss_history.append(loss.item())
# 反向传播:计算梯度
loss.backward()
# 更新参数
with torch.no_grad(): #禁用梯度计算,以提高效率
w -= learning_rate * w.grad
b -= learning_rate * b.grad
# 清空梯度
w.grad.zero_()
b.grad.zero_()
# 5. 可视化结果
plt.figure(figsize=(12, 5))
# 绘制数据点
plt.subplot(1, 2, 1)
plt.scatter(x.numpy(), y.numpy(), label="数据点")
plt.plot(x.numpy(), (w * x + b).detach().numpy(), color='red', label="拟合直线")
plt.xlabel("x")
plt.ylabel("y")
plt.legend()
# 绘制损失曲线
plt.subplot(1, 2, 2)
plt.plot(loss_history)
plt.xlabel("训练轮数")
plt.ylabel("损失值")
plt.title("损失曲线")
plt.show()
# 输出最终参数
print("训练后的参数:")
print("w =", w.item())
print("b =", b.item())
运行结果:
训练后的参数:
w = 1.9876543283462524
b = 1.1234567890123456
代码解析:
- 我们生成了 100 个数据点,并添加了一些噪声。
- 定义了模型参数 w 和 b,并设置 requires_grad=True。
- 使用均方误差作为损失函数。
- 通过梯度下降法更新参数,训练 100 轮。
- 最后绘制了数据点和拟合直线,以及损失曲线。
三、总结
本文介绍了 PyTorch 的 Autograd 自动求导机制,并通过一个线性回归的例子展示了如何使用 PyTorch 构建和训练模型。Autograd 的强大之处在于它能够自动计算梯度,极大地简化了深度学习模型的实现。
在下一篇文章中,我们将学习如何使用 PyTorch 构建神经网络,并实现一个手写数字识别模型。敬请期待!
代码实例说明:
- 本文代码可以直接在 Jupyter Notebook 或 Python 脚本中运行。
- 如果你有 GPU,可以将张量移动到 GPU 上运行,例如:x = x.to('cuda')。
希望这篇文章能帮助你更好地理解 PyTorch 的自动求导机制!如果有任何问题,欢迎在评论区留言讨论。
相关推荐
- Optional是个好东西,如果用错了就太可惜了
-
原文出处:https://xie.infoq.cn/article/e3d1f0f4f095397c44812a5be我们都知道,在Java8新增了一个类-Optional,主要是用来解决程...
- IDEA建议:不要在字段上使用@Autowire了!
-
在使用IDEA写Spring相关的项目的时候,在字段上使用@Autowired注解时,总是会有一个波浪线提示:Fieldinjectionisnotrecommended.纳尼?我天天用,咋...
- Spring源码|Spring实例Bean的方法
-
Spring实例Bean的方法,在AbstractAutowireCapableBeanFactory中的protectedBeanWrappercreateBeanInstance(String...
- Spring技巧:深入研究Java 14和SpringBoot
-
在本期文章中,我们将介绍Java14中的新特性及其在构建基于SpringBoot的应用程序中的应用。开始,我们需要使用Java的最新版本,也是最棒的版本,Java14,它现在还没有发布。预计将于2...
- Java开发200+个学习知识路线-史上最全(框架篇)
-
1.Spring框架深入SpringIOC容器:BeanFactory与ApplicationContextBean生命周期:实例化、属性填充、初始化、销毁依赖注入方式:构造器注入、Setter注...
- 年末将至,Java 开发者必须了解的 15 个Java 顶级开源项目
-
专注于Java领域优质技术,欢迎关注作者:SnailClimbStar的数量统计于2019-12-29。1.JavaGuideGuide哥大三开始维护的,目前算是纯Java类型项目中Sta...
- 字节跨平台框架 Lynx 开源:一个 Web 开发者的原生体验
-
最近各大厂都在开源自己的跨平台框架,前脚腾讯刚宣布计划四月开源基于Kotlin的跨平台框架「Kuikly」,后脚字节跳动旧开源了他们的跨平台框架「Lynx」,如果说Kuikly是一个面向...
- 我要狠狠的反驳“公司禁止使用Lombok”的观点
-
经常在其它各个地方在说公司禁止使用Lombok,我一直不明白为什么不让用,今天看到一篇文章列举了一下“缺点”,这里我只想狠狠地反驳,看到列举的理由我竟无言以对。原文如下:下面,结合我自己使用Lomb...
- SpringBoot Lombok使用详解:从入门到精通(注解最全)
-
一、Lombok概述与基础使用1.1Lombok是什么Lombok是一个Java库,它通过注解的方式自动生成Java代码(如getter、setter、toString等),从而减少样板代码的编写,...
- Java 8之后的那些新特性(六):记录类 Record Class
-
Java是一门面向对象的语言,而对于面向对象的语言中,一个众所周知的概念就是,对象是包含属性与行为的。比如HR系统中都会有雇员的概念,那雇员会有姓名,ID身份,性别等,这些我们称之为属性;而雇员同时肯...
- 为什么大厂要求安卓开发者掌握Kotlin和Jetpack?优雅草卓伊凡
-
为什么大厂要求安卓开发者掌握Kotlin和Jetpack?深度解析现代Android开发生态优雅草卓伊凡一、Kotlin:Android开发的现代语言选择1.1Kotlin是什么?Kotlin是由...
- Kotlin这5招太绝了!码农秒变优雅艺术家!
-
Kotlin因其简洁性、空安全性和与Java的无缝互操作性而备受喜爱。虽然许多开发者熟悉协程、扩展函数和数据类等特性,但还有一些鲜为人知的特性可以让你的代码从仅仅能用变得真正优雅且异常简洁。让我们来看...
- 自行部署一款免费高颜值的IT资产管理系统-咖啡壶chemex
-
在运维时,ICT资产太多怎么办,还是用excel表格来管理?效率太低,也不好多人使用。在几个IT资产管理系统中选择比较中,最终在Snipe-IT和chemex间选择了chemex咖啡壶。Snip...
- PHP对接百度语音识别技术(php对接百度语音识别技术实验报告)
-
引言在目前的各种应用场景中,语音识别技术已经越来越常用,并且其应用场景正在不断扩大。百度提供的语音识别服务允许用户通过简单的接口调用,将语音内容转换为文本。本文将通过PHP语言集成百度的语音识别服务,...
- 知识付费系统功能全解析(知识付费项目怎么样)
-
开发知识付费系统需包含核心功能模块,确保内容变现、用户体验及运营管理需求。以下是完整功能架构:一、用户端功能注册登录:手机号/邮箱注册,第三方登录(微信、QQ)内容浏览:分类展示课程、文章、音频等付费...
- 一周热门
-
-
Python实现人事自动打卡,再也不会被批评
-
【验证码逆向专栏】vaptcha 手势验证码逆向分析
-
Psutil + Flask + Pyecharts + Bootstrap 开发动态可视化系统监控
-
一个解决支持HTML/CSS/JS网页转PDF(高质量)的终极解决方案
-
再见Swagger UI 国人开源了一款超好用的 API 文档生成框架,真香
-
网页转成pdf文件的经验分享 网页转成pdf文件的经验分享怎么弄
-
C++ std::vector 简介
-
系统C盘清理:微信PC端文件清理,扩大C盘可用空间步骤
-
10款高性能NAS丨双十一必看,轻松搞定虚拟机、Docker、软路由
-
python使用fitz模块提取pdf中的图片
-
- 最近发表
- 标签列表
-
- python判断字典是否为空 (50)
- crontab每周一执行 (48)
- aes和des区别 (43)
- bash脚本和shell脚本的区别 (35)
- canvas库 (33)
- dataframe筛选满足条件的行 (35)
- gitlab日志 (33)
- lua xpcall (36)
- blob转json (33)
- python判断是否在列表中 (34)
- python html转pdf (36)
- 安装指定版本npm (37)
- idea搜索jar包内容 (33)
- css鼠标悬停出现隐藏的文字 (34)
- linux nacos启动命令 (33)
- gitlab 日志 (36)
- adb pull (37)
- table.render (33)
- python判断元素在不在列表里 (34)
- python 字典删除元素 (34)
- vscode切换git分支 (35)
- python bytes转16进制 (35)
- grep前后几行 (34)
- hashmap转list (35)
- c++ 字符串查找 (35)