百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

Pytorch学习-Day 3:张量高级操作(张量svd)

liuian 2025-05-08 19:40 1 浏览

以下是 PyTorch 第3天学习任务的示例代码,涵盖张量形状变换(view 和 reshape)、广播机制以及 GPU 加速的实现。代码中包含详细注释,帮助理解每个部分的功能,并完成任务:将张量移动到 GPU 并计算两个张量的矩阵乘法。

python

# 示例代码:PyTorch Day 3 - 张量高级操作

# 导入 PyTorch 库
import torch

# 检查 GPU 是否可用
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
print(f"当前设备: {device}")

# 1. 张量形状变换(view 和 reshape)
def tensor_shape_transform():
    # 创建一个 3x4 的张量
    x = torch.arange(12).float()  # 生成 0 到 11 的张量,转换为浮点型
    print("原始张量 x:")
    print(x)
    print(f"x 的形状: {x.shape}")  # torch.Size([12])

    # 使用 view 变换形状(要求元素总数不变)
    x_view = x.view(3, 4)  # 变换为 3x4
    print("\n使用 view 变换后的 x:")
    print(x_view)
    print(f"x_view 的形状: {x_view.shape}")  # torch.Size([3, 4])

    # 使用 reshape 变换形状(更灵活,可自动推导维度)
    x_reshape = x.reshape(2, -1)  # -1 表示自动计算此维度,变为 2x6
    print("\n使用 reshape 变换后的 x:")
    print(x_reshape)
    print(f"x_reshape 的形状: {x_reshape.shape}")  # torch.Size([2, 6])

# 2. 广播机制(Broadcasting)
def tensor_broadcasting():
    # 创建两个形状不同的张量
    a = torch.tensor([[1, 2, 3]])  # 形状: 1x3
    b = torch.tensor([[4], [5], [6]])  # 形状: 3x1
    print("\n张量 a:")
    print(a)
    print(f"a 的形状: {a.shape}")
    print("张量 b:")
    print(b)
    print(f"b 的形状: {b.shape}")

    # 广播机制自动扩展维度并进行逐元素相加
    c = a + b  # 结果形状为 3x3
    print("\n广播后 a + b 的结果:")
    print(c)
    print(f"c 的形状: {c.shape}")

# 3. GPU 加速 + 矩阵乘法任务
def matrix_multiplication_on_gpu():
    # 创建两个张量
    A = torch.randn(3, 4)  # 随机生成 3x4 矩阵
    B = torch.randn(4, 5)  # 随机生成 4x5 矩阵
    print("\n矩阵 A:")
    print(A)
    print("矩阵 B:")
    print(B)

    # 将张量移动到 GPU(如果可用)
    if torch.cuda.is_available():
        A = A.to(device)
        B = B.to(device)
        print(f"\n张量已移动到 {device}")

    # 计算矩阵乘法
    C = torch.matmul(A, B)  # 结果形状为 3x5
    print("\n矩阵乘法结果 C (A @ B):")
    print(C)
    print(f"C 的形状: {C.shape}")

# 主函数:依次运行所有任务
def main():
    print("=== 张量形状变换 ===")
    tensor_shape_transform()
    print("\n=== 广播机制 ===")
    tensor_broadcasting()
    print("\n=== GPU 加速与矩阵乘法 ===")
    matrix_multiplication_on_gpu()

if __name__ == "__main__":
    main()

"""
学习内容说明:
1. 张量形状变换:
   - view(): 改变张量形状,要求内存连续且元素总数不变。
   - reshape(): 更灵活的形状变换,支持非连续内存。

2. 广播机制:
   - 自动扩展张量维度以匹配操作(如加法),无需手动调整形状。
   - 规则:从尾部对齐维度,小维度扩展为大维度或补1。

3. GPU 加速:
   - 使用 torch.device 和 .to() 将张量移到 GPU。
   - torch.cuda.is_available() 检查 GPU 可用性。

任务完成:
- 将张量 A 和 B 移动到 GPU(如果可用)。
- 使用 torch.matmul() 计算矩阵乘法。
"""

代码说明

  1. 张量形状变换:
  2. view(3, 4): 将一维张量变换为 3x4 的二维张量。
  3. reshape(2, -1): 将张量变为 2 行,列数自动推导为 6。
  4. 广播机制:
  5. 两个张量 a (1x3) 和 b (3x1) 通过广播扩展为 3x3,然后逐元素相加。
  6. 展示了 PyTorch 如何自动处理维度不匹配的情况。
  7. GPU 加速与矩阵乘法:
  8. 检查 GPU 可用性并定义 device。
  9. 使用 .to(device) 将张量 A 和 B 移到 GPU。
  10. 使用 torch.matmul() 计算矩阵乘法,结果为 3x5 的矩阵。

运行要求

  • 安装 PyTorch: pip install torch(如果需要 GPU 支持,确保安装 CUDA 版本,例如 pip install torch torchvision -f https://download.pytorch.org/whl/cu117)。
  • 有 GPU 的环境(可选):如果没有 GPU,代码会自动在 CPU 上运行。

如何运行

  1. 保存代码为 pytorch_day3.py。
  2. 在终端运行:python pytorch_day3.py。
  3. 观察输出,验证形状变换、广播和矩阵乘法的结果。

输出示例(部分)

当前设备: cuda
=== 张量形状变换 ===
原始张量 x:
tensor([ 0.,  1.,  2.,  3.,  4.,  5.,  6.,  7.,  8.,  9., 10., 11.])
x 的形状: torch.Size([12])

使用 view 变换后的 x:
tensor([[ 0.,  1.,  2.,  3.],
        [ 4.,  5.,  6.,  7.],
        [ 8.,  9., 10., 11.]])
x_view 的形状: torch.Size([3, 4])

...
=== GPU 加速与矩阵乘法 ===
张量已移动到 cuda
矩阵乘法结果 C (A @ B):
tensor([[...], [...], [...]])  # 具体值因随机生成而异
C 的形状: torch.Size([3, 5])

这个代码完整实现了第3天的学习任务,并通过注释和输出展示了 PyTorch 的张量高级操作。建议参考 PyTorch 官方教程“Tensor Operations”进一步深入学习!

相关推荐

深入解析 MySQL 8.0 JSON 相关函数:解锁数据存储的无限可能

引言在现代应用程序中,数据的存储和处理变得愈发复杂多样。MySQL8.0引入了丰富的JSON相关函数,为我们提供了更灵活的数据存储和检索方式。本文将深入探讨MySQL8.0中的JSON...

MySQL的Json类型个人用法详解(mysql json类型对应java什么类型)

前言虽然MySQL很早就添加了Json类型,但是在业务开发过程中还是很少设计带这种类型的表。少不代表没有,当真正要对Json类型进行特定查询,修改,插入和优化等操作时,却感觉一下子想不起那些函数怎么使...

MySQL的json查询之json_array(mysql json_search)

json_array顾名思义就是创建一个数组,实际的用法,我目前没有想到很好的使用场景。使用官方的例子说明一下吧。例一selectjson_array(1,2,3,4);json_array虽然单独...

头条创作挑战赛#一、LSTM 原理 长短期记忆网络

#头条创作挑战赛#一、LSTM原理长短期记忆网络(LongShort-TermMemory,LSTM)是一种特殊类型的循环神经网络(RNN),旨在解决传统RNN在处理长序列数据时面临的梯度...

TensorBoard最全使用教程:看这篇就够了

机器学习通常涉及在训练期间可视化和度量模型的性能。有许多工具可用于此任务。在本文中,我们将重点介绍TensorFlow的开源工具套件,称为TensorBoard,虽然他是TensorFlow...

图神经网络版本的Kolmogorov Arnold(KAN)代码实现和效果对比

本文约4600字,建议阅读10分钟本文介绍了图神经网络版本的对比。KolmogorovArnoldNetworks(KAN)最近作为MLP的替代而流行起来,KANs使用Kolmogorov-Ar...

kornia,一个实用的 Python 库!(python kkb_tools)

大家好,今天为大家分享一个实用的Python库-kornia。Github地址:https://github.com/kornia/kornia/Kornia是一个基于PyTorch的开源计算...

图像分割掩码标注转YOLO多边形标注

Ultralytics团队付出了巨大的努力,使创建自定义YOLO模型变得非常容易。但是,处理大型数据集仍然很痛苦。训练yolo分割模型需要数据集具有其特定格式,这可能与你从大型数据集中获得的...

[python] 向量检索库Faiss使用指北

Faiss是一个由facebook开发以用于高效相似性搜索和密集向量聚类的库。它能够在任意大小的向量集中进行搜索。它还包含用于评估和参数调整的支持代码。Faiss是用C++编写的,带有Python的完...

如何把未量化的 70B 大模型加载到笔记本电脑上运行?

并行运行70B大模型我们已经看到,量化已经成为在低端GPU(比如Colab、Kaggle等)上加载大型语言模型(LLMs)的最常见方法了,但这会降低准确性并增加幻觉现象。那如果你和你的朋友们...

ncnn+PPYOLOv2首次结合!全网最详细代码解读来了

编辑:好困LRS【新智元导读】今天给大家安利一个宝藏仓库miemiedetection,该仓库集合了PPYOLO、PPYOLOv2、PPYOLOE三个算法pytorch实现三合一,其中的PPYOL...

人工智能——图像识别(人工智能图像识别流程)

概述图像识别(ImageRecognition)是计算机视觉的核心任务之一,旨在通过算法让计算机理解图像内容,包括分类(识别物体类别)、检测(定位并识别多个物体)、分割(像素级识别)等,常见的应用场...

PyTorch 深度学习实战(15):Twin Delayed DDPG (TD3) 算法

在上一篇文章中,我们介绍了DeepDeterministicPolicyGradient(DDPG)算法,并使用它解决了Pendulum问题。本文将深入探讨TwinDelayed...

大模型中常用的注意力机制GQA详解以及Pytorch代码实现

分组查询注意力(GroupedQueryAttention)是一种在大型语言模型中的多查询注意力(MQA)和多头注意力(MHA)之间进行插值的方法,它的目标是在保持MQA速度的同时...

pytorch如何快速创建具有特殊意思的tensor张量?

专栏推荐正文我们通过值可以看到torch.empty并没有进行初始化创建tensor并进行随机初始化操作,常用rand/rand_like,randint正态分布(0,1)指定正态分布的均值还有方差i...