百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

Pytorch学习-Day 3:张量高级操作(张量svd)

liuian 2025-05-08 19:40 21 浏览

以下是 PyTorch 第3天学习任务的示例代码,涵盖张量形状变换(view 和 reshape)、广播机制以及 GPU 加速的实现。代码中包含详细注释,帮助理解每个部分的功能,并完成任务:将张量移动到 GPU 并计算两个张量的矩阵乘法。

python

# 示例代码:PyTorch Day 3 - 张量高级操作

# 导入 PyTorch 库
import torch

# 检查 GPU 是否可用
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
print(f"当前设备: {device}")

# 1. 张量形状变换(view 和 reshape)
def tensor_shape_transform():
    # 创建一个 3x4 的张量
    x = torch.arange(12).float()  # 生成 0 到 11 的张量,转换为浮点型
    print("原始张量 x:")
    print(x)
    print(f"x 的形状: {x.shape}")  # torch.Size([12])

    # 使用 view 变换形状(要求元素总数不变)
    x_view = x.view(3, 4)  # 变换为 3x4
    print("\n使用 view 变换后的 x:")
    print(x_view)
    print(f"x_view 的形状: {x_view.shape}")  # torch.Size([3, 4])

    # 使用 reshape 变换形状(更灵活,可自动推导维度)
    x_reshape = x.reshape(2, -1)  # -1 表示自动计算此维度,变为 2x6
    print("\n使用 reshape 变换后的 x:")
    print(x_reshape)
    print(f"x_reshape 的形状: {x_reshape.shape}")  # torch.Size([2, 6])

# 2. 广播机制(Broadcasting)
def tensor_broadcasting():
    # 创建两个形状不同的张量
    a = torch.tensor([[1, 2, 3]])  # 形状: 1x3
    b = torch.tensor([[4], [5], [6]])  # 形状: 3x1
    print("\n张量 a:")
    print(a)
    print(f"a 的形状: {a.shape}")
    print("张量 b:")
    print(b)
    print(f"b 的形状: {b.shape}")

    # 广播机制自动扩展维度并进行逐元素相加
    c = a + b  # 结果形状为 3x3
    print("\n广播后 a + b 的结果:")
    print(c)
    print(f"c 的形状: {c.shape}")

# 3. GPU 加速 + 矩阵乘法任务
def matrix_multiplication_on_gpu():
    # 创建两个张量
    A = torch.randn(3, 4)  # 随机生成 3x4 矩阵
    B = torch.randn(4, 5)  # 随机生成 4x5 矩阵
    print("\n矩阵 A:")
    print(A)
    print("矩阵 B:")
    print(B)

    # 将张量移动到 GPU(如果可用)
    if torch.cuda.is_available():
        A = A.to(device)
        B = B.to(device)
        print(f"\n张量已移动到 {device}")

    # 计算矩阵乘法
    C = torch.matmul(A, B)  # 结果形状为 3x5
    print("\n矩阵乘法结果 C (A @ B):")
    print(C)
    print(f"C 的形状: {C.shape}")

# 主函数:依次运行所有任务
def main():
    print("=== 张量形状变换 ===")
    tensor_shape_transform()
    print("\n=== 广播机制 ===")
    tensor_broadcasting()
    print("\n=== GPU 加速与矩阵乘法 ===")
    matrix_multiplication_on_gpu()

if __name__ == "__main__":
    main()

"""
学习内容说明:
1. 张量形状变换:
   - view(): 改变张量形状,要求内存连续且元素总数不变。
   - reshape(): 更灵活的形状变换,支持非连续内存。

2. 广播机制:
   - 自动扩展张量维度以匹配操作(如加法),无需手动调整形状。
   - 规则:从尾部对齐维度,小维度扩展为大维度或补1。

3. GPU 加速:
   - 使用 torch.device 和 .to() 将张量移到 GPU。
   - torch.cuda.is_available() 检查 GPU 可用性。

任务完成:
- 将张量 A 和 B 移动到 GPU(如果可用)。
- 使用 torch.matmul() 计算矩阵乘法。
"""

代码说明

  1. 张量形状变换:
  2. view(3, 4): 将一维张量变换为 3x4 的二维张量。
  3. reshape(2, -1): 将张量变为 2 行,列数自动推导为 6。
  4. 广播机制:
  5. 两个张量 a (1x3) 和 b (3x1) 通过广播扩展为 3x3,然后逐元素相加。
  6. 展示了 PyTorch 如何自动处理维度不匹配的情况。
  7. GPU 加速与矩阵乘法:
  8. 检查 GPU 可用性并定义 device。
  9. 使用 .to(device) 将张量 A 和 B 移到 GPU。
  10. 使用 torch.matmul() 计算矩阵乘法,结果为 3x5 的矩阵。

运行要求

  • 安装 PyTorch: pip install torch(如果需要 GPU 支持,确保安装 CUDA 版本,例如 pip install torch torchvision -f https://download.pytorch.org/whl/cu117)。
  • 有 GPU 的环境(可选):如果没有 GPU,代码会自动在 CPU 上运行。

如何运行

  1. 保存代码为 pytorch_day3.py。
  2. 在终端运行:python pytorch_day3.py。
  3. 观察输出,验证形状变换、广播和矩阵乘法的结果。

输出示例(部分)

当前设备: cuda
=== 张量形状变换 ===
原始张量 x:
tensor([ 0.,  1.,  2.,  3.,  4.,  5.,  6.,  7.,  8.,  9., 10., 11.])
x 的形状: torch.Size([12])

使用 view 变换后的 x:
tensor([[ 0.,  1.,  2.,  3.],
        [ 4.,  5.,  6.,  7.],
        [ 8.,  9., 10., 11.]])
x_view 的形状: torch.Size([3, 4])

...
=== GPU 加速与矩阵乘法 ===
张量已移动到 cuda
矩阵乘法结果 C (A @ B):
tensor([[...], [...], [...]])  # 具体值因随机生成而异
C 的形状: torch.Size([3, 5])

这个代码完整实现了第3天的学习任务,并通过注释和输出展示了 PyTorch 的张量高级操作。建议参考 PyTorch 官方教程“Tensor Operations”进一步深入学习!

相关推荐

Python 中 必须掌握的 20 个核心函数——items()函数

items()是Python字典对象的方法,用于返回字典中所有键值对的视图对象。它提供了对字典完整内容的高效访问和操作。一、items()的基本用法1.1方法签名dict.items()返回:字典键...

Python字典:键值对的艺术_python字典的用法

字典(dict)是Python的核心数据结构之一,与列表同属可变序列,但采用完全不同的存储方式:定义方式:使用花括号{}(列表使用方括号[])存储结构:以键值对(key-valuepair)...

python字典中如何添加键值对_python怎么往字典里添加键

添加键值对首先定义一个空字典1>>>dic={}直接对字典中不存在的key进行赋值来添加123>>>dic['name']='zhangsan'>>...

Spring Boot @ConfigurationProperties 详解与 Nacos 配置中心集成

本文将深入探讨SpringBoot中@ConfigurationProperties的详细用法,包括其语法细节、类型转换、复合类型处理、数据校验,以及与Nacos配置中心的集成方式。通过...

Dubbo概述_dubbo工作原理和机制

什么是RPCRPC是RemoteProcedureCall的缩写翻译为:远程过程调用目标是为了实现两台(多台)计算机\服务器,互相调用方法\通信的解决方案RPC的概念主要定义了两部分内容序列化协...

再见 Feign!推荐一款微服务间调用神器,跟 SpringCloud 绝配

在微服务项目中,如果我们想实现服务间调用,一般会选择Feign。之前介绍过一款HTTP客户端工具Retrofit,配合SpringBoot非常好用!其实Retrofit不仅支持普通的HTTP调用,还能...

SpringGateway 网关_spring 网关的作用

奈非框架简介早期(2020年前)奈非提供的微服务组件和框架受到了很多开发者的欢迎这些框架和SpringCloudAlibaba的对应关系我们要知道Nacos对应Eureka都是注册中心Dubbo...

Sentinel 限流详解-Sentinel与OpenFeign服务熔断那些事

SentinelResource我们使用到过这个注解,我们需要了解的是其中两个属性:value:资源名称,必填且唯一。@SentinelResource(value="test/get&#...

超详细MPLS学习指南 手把手带你实现IP与二层网络的无缝融合

大家晚上好,我是小老虎,今天的文章有点长,但是都是干货,耐心看下去,不会让你失望的哦!随着ASIC技术的发展,路由查找速度已经不是阻碍网络发展的瓶颈。这使得MPLS在提高转发速度方面不再具备明显的优势...

Cisco 尝试配置MPLS-V.P.N从开始到放弃

本人第一次接触这个协议,所以打算分两篇进行学习和记录,本文枯燥预警,配置命令在下一篇全为定义,其也是算我毕业设计的一个小挑战。新概念重点备注为什么选择该协议IPSecVPN都属于传统VPN传统VP...

MFC -- 网络通信编程_mfc编程教程

要买东西的时候,店家常常说,你要是真心买的,还能给你便宜,你看真心就是不怎么值钱。。。----网易云热评一、创建服务端1、新建一个控制台应用程序,添加源文件server2、添加代码框架#includ...

35W快充?2TB存储?iPhone14爆料汇总,不要再漫天吹15了

iPhone14都还没发布,关于iPhone15的消息却已经漫天飞,故加紧整理了关于iPhone14目前已爆出的消息。本文将从机型、刘海、屏幕、存储、芯片、拍照、信号、机身材质、充电口、快充、配色、价...

SpringCloud Alibaba(四) - Nacos 配置中心

1、环境搭建1.1依赖<!--nacos注册中心注解@EnableDiscoveryClient--><dependency><groupI...

Nacos注册中心最全详解(图文全面总结)

Nacos注册中心是微服务的核心组件,也是大厂经常考察的内容,下面我就重点来详解Nacos注册中心@mikechen本篇已收于mikechen原创超30万字《阿里架构师进阶专题合集》里面。微服务注册中...

网络技术领域端口号备忘录,受益匪浅 !

你好,这里是网络技术联盟站,我是瑞哥。网络端口是计算机网络中用于区分不同应用程序和服务的标识符。每个端口号都是一个16位的数字,范围从0到65535。网络端口的主要功能是帮助网络设备(如计算机和服务器...