百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

Pytorch学习-day7: 复习与实践(pytorch入门教程(非常详细))

liuian 2025-05-08 19:41 2 浏览

学习内容

  1. 张量基础回顾: 张量的创建、属性(形状、数据类型、设备)和操作(索引、切片、变形)。 张量的数学运算(加、减、乘、矩阵乘法)和自动求导(requires_grad)。 张量与 NumPy 的互操作。
  2. 神经网络基础回顾: 神经网络的结构:输入层、隐藏层、输出层。 激活函数(如 ReLU、Sigmoid)的用途。 损失函数(如均方误差 MSE)和优化器(如 SGD、Adam)。 前向传播和反向传播的过程。
  3. PyTorch 核心模块: torch.Tensor:张量操作。 torch.nn:构建神经网络(如 nn.Linear、nn.MSELoss)。 torch.optim:优化器。

任务

使用 PyTorch 的 MLP 拟合一个简单线性数据集 y = 2x + 1,并计算均方误差损失。具体要求:

  1. 生成一个简单数据集(如 x 从 -10 到 10,y = 2x + 1 加少量噪声)。
  2. 定义一个 MLP 模型,包含至少一个隐藏层,使用 ReLU 激活函数。
  3. 使用均方误差(MSE)作为损失函数,Adam 优化器进行训练。
  4. 训练模型 100 个 epoch,打印每 10 个 epoch 的损失。
  5. 可视化原始数据点和模型预测的拟合直线。

示例代码

以下代码可在 Google Colab 上运行,用于完成任务:

python

import torch
import torch.nn as nn
import torch.optim as optim
import numpy as np
import matplotlib.pyplot as plt

# 设置随机种子以确保可重复性
torch.manual_seed(42)

# 1. 生成数据集
x = torch.linspace(-10, 10, 100).reshape(-1, 1)  # 输入 x,形状 (100, 1)
y = 2 * x + 1 + torch.randn(x.size()) * 0.5    # y = 2x + 1 + 噪声

# 2. 定义 MLP 模型
class MLP(nn.Module):
    def __init__(self):
        super(MLP, self).__init__()
        self.layers = nn.Sequential(
            nn.Linear(1, 16),  # 输入层到隐藏层(16个神经元)
            nn.ReLU(),         # ReLU 激活函数
            nn.Linear(16, 1)   # 隐藏层到输出层
        )

    def forward(self, x):
        return self.layers(x)

# 实例化模型、损失函数和优化器
model = MLP()
criterion = nn.MSELoss()  # 均方误差损失
optimizer = optim.Adam(model.parameters(), lr=0.01)

# 3. 训练模型
num_epochs = 100
losses = []

for epoch in range(num_epochs):
    # 前向传播
    outputs = model(x)
    loss = criterion(outputs, y)

    # 反向传播和优化
    optimizer.zero_grad()  # 清空梯度
    loss.backward()        # 计算梯度
    optimizer.step()       # 更新参数

    # 记录损失
    losses.append(loss.item())

    # 每 10 个 epoch 打印损失
    if (epoch + 1) % 10 == 0:
        print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')

# 4. 可视化结果
plt.figure(figsize=(10, 5))

# 绘制原始数据点
plt.scatter(x.numpy(), y.numpy(), label='Data', color='blue', alpha=0.5)

# 绘制模型预测的拟合直线
with torch.no_grad():
    y_pred = model(x)
plt.plot(x.numpy(), y_pred.numpy(), label='MLP Fit', color='red', linewidth=2)

plt.xlabel('x')
plt.ylabel('y')
plt.title('MLP Fitting y = 2x + 1')
plt.legend()
plt.grid(True)
plt.show()

# 5. 绘制损失曲线
plt.figure(figsize=(10, 5))
plt.plot(range(num_epochs), losses, label='Training Loss')
plt.xlabel('Epoch')
plt.ylabel('Loss')
plt.title('Training Loss Curve')
plt.legend()
plt.grid(True)
plt.show()

代码说明

  1. 数据集生成: 使用 torch.linspace 生成 x,计算 y = 2x + 1 并添加高斯噪声模拟真实数据。 数据形状为 (100, 1),适合单输入单输出的回归任务。
  2. MLP 模型: 定义一个简单的 MLP,包含一个输入层(1 个神经元)、一个隐藏层(16 个神经元,ReLU 激活)、一个输出层(1 个神经元)。 使用 nn.Sequential 简化模型定义。
  3. 训练过程: 使用 MSE 损失函数(nn.MSELoss)和 Adam 优化器(optim.Adam)。 每次迭代清空梯度、计算损失、反向传播、更新参数。
  4. 可视化: 使用 Matplotlib 绘制原始数据点和拟合直线。 绘制训练过程中的损失曲线,观察模型收敛情况。

资源建议

  1. Google Colab: 直接将上述代码复制到 Colab 笔记本运行,无需本地配置 PyTorch。 Colab 提供免费 GPU 加速,适合快速实验。 链接:Google Colab
  2. PyTorch 官方文档: 张量操作:torch.Tensor 神经网络模块:torch.nn 优化器:torch.optim
  3. 推荐教程: PyTorch 官方入门教程:PyTorch Tutorials DeepLearning.AI 的 PyTorch 课程(免费):DeepLearning.AI PyTorch
  4. 补充练习: 修改隐藏层神经元数量(如 32 或 64),观察对拟合效果的影响。 尝试不同的激活函数(如 Sigmoid 或 Tanh),比较训练结果。 增加噪声幅度,测试模型的鲁棒性。

学习提示

  • 调试技巧:检查张量形状是否匹配(如 x 和 y 的维度),确保 requires_grad=True 用于需要梯度的张量。
  • 理解损失:如果损失不下降,尝试调整学习率(如 0.001 或 0.1)或增加 epoch 数量。
  • 实践建议:手动推导一次前向传播和反向传播的计算过程,加深对神经网络的理解。

相关推荐

深入解析 MySQL 8.0 JSON 相关函数:解锁数据存储的无限可能

引言在现代应用程序中,数据的存储和处理变得愈发复杂多样。MySQL8.0引入了丰富的JSON相关函数,为我们提供了更灵活的数据存储和检索方式。本文将深入探讨MySQL8.0中的JSON...

MySQL的Json类型个人用法详解(mysql json类型对应java什么类型)

前言虽然MySQL很早就添加了Json类型,但是在业务开发过程中还是很少设计带这种类型的表。少不代表没有,当真正要对Json类型进行特定查询,修改,插入和优化等操作时,却感觉一下子想不起那些函数怎么使...

MySQL的json查询之json_array(mysql json_search)

json_array顾名思义就是创建一个数组,实际的用法,我目前没有想到很好的使用场景。使用官方的例子说明一下吧。例一selectjson_array(1,2,3,4);json_array虽然单独...

头条创作挑战赛#一、LSTM 原理 长短期记忆网络

#头条创作挑战赛#一、LSTM原理长短期记忆网络(LongShort-TermMemory,LSTM)是一种特殊类型的循环神经网络(RNN),旨在解决传统RNN在处理长序列数据时面临的梯度...

TensorBoard最全使用教程:看这篇就够了

机器学习通常涉及在训练期间可视化和度量模型的性能。有许多工具可用于此任务。在本文中,我们将重点介绍TensorFlow的开源工具套件,称为TensorBoard,虽然他是TensorFlow...

图神经网络版本的Kolmogorov Arnold(KAN)代码实现和效果对比

本文约4600字,建议阅读10分钟本文介绍了图神经网络版本的对比。KolmogorovArnoldNetworks(KAN)最近作为MLP的替代而流行起来,KANs使用Kolmogorov-Ar...

kornia,一个实用的 Python 库!(python kkb_tools)

大家好,今天为大家分享一个实用的Python库-kornia。Github地址:https://github.com/kornia/kornia/Kornia是一个基于PyTorch的开源计算...

图像分割掩码标注转YOLO多边形标注

Ultralytics团队付出了巨大的努力,使创建自定义YOLO模型变得非常容易。但是,处理大型数据集仍然很痛苦。训练yolo分割模型需要数据集具有其特定格式,这可能与你从大型数据集中获得的...

[python] 向量检索库Faiss使用指北

Faiss是一个由facebook开发以用于高效相似性搜索和密集向量聚类的库。它能够在任意大小的向量集中进行搜索。它还包含用于评估和参数调整的支持代码。Faiss是用C++编写的,带有Python的完...

如何把未量化的 70B 大模型加载到笔记本电脑上运行?

并行运行70B大模型我们已经看到,量化已经成为在低端GPU(比如Colab、Kaggle等)上加载大型语言模型(LLMs)的最常见方法了,但这会降低准确性并增加幻觉现象。那如果你和你的朋友们...

ncnn+PPYOLOv2首次结合!全网最详细代码解读来了

编辑:好困LRS【新智元导读】今天给大家安利一个宝藏仓库miemiedetection,该仓库集合了PPYOLO、PPYOLOv2、PPYOLOE三个算法pytorch实现三合一,其中的PPYOL...

人工智能——图像识别(人工智能图像识别流程)

概述图像识别(ImageRecognition)是计算机视觉的核心任务之一,旨在通过算法让计算机理解图像内容,包括分类(识别物体类别)、检测(定位并识别多个物体)、分割(像素级识别)等,常见的应用场...

PyTorch 深度学习实战(15):Twin Delayed DDPG (TD3) 算法

在上一篇文章中,我们介绍了DeepDeterministicPolicyGradient(DDPG)算法,并使用它解决了Pendulum问题。本文将深入探讨TwinDelayed...

大模型中常用的注意力机制GQA详解以及Pytorch代码实现

分组查询注意力(GroupedQueryAttention)是一种在大型语言模型中的多查询注意力(MQA)和多头注意力(MHA)之间进行插值的方法,它的目标是在保持MQA速度的同时...

pytorch如何快速创建具有特殊意思的tensor张量?

专栏推荐正文我们通过值可以看到torch.empty并没有进行初始化创建tensor并进行随机初始化操作,常用rand/rand_like,randint正态分布(0,1)指定正态分布的均值还有方差i...