突破Pytorch核心,Tensor !!
创始人
2025-07-10 13:30:29
0

今天会把Pytorch在张量这方面的内容做一个记录。

同时希望可以给大家提供一丢丢帮助!

因为今儿分享的内容,绝对是非常干货的一些示例。

先简单介绍下,在PyTorch中,张量是核心数据结构,它是一个多维数组,类似于NumPy中的数组。张量不仅仅是存储数据的容器,还是进行各种数学运算和深度学习操作的基础。

下面从三方面做一个总结:

  • 张量的概念
  • 张量的原理
  • 张量的操作

图片图片

张量的概念

1.张量的定义

张量是一种多维数组,它可以是标量(零维数组)、向量(一维数组)、矩阵(二维数组)或具有更高维度的数组。

在PyTorch中,张量是torch.Tensor的实例,可以通过不同的方式创建,如直接从Python列表、NumPy数组或通过特定函数生成。

import torch

# 创建一个标量
scalar_tensor = torch.tensor(3.14)

# 创建一个向量
vector_tensor = torch.tensor([1, 2, 3])

# 创建一个矩阵
matrix_tensor = torch.tensor([[1, 2, 3], [4, 5, 6]])

# 创建一个3D张量
tensor_3d = torch.rand((2, 3, 4))  # 2行3列4深度

2.张量的属性

每个张量都有一些重要的属性,包括形状(shape)、数据类型(dtype)和设备(device)。

# 获取张量的形状
shape = tensor_3d.shape

# 获取张量的数据类型
dtype = tensor_3d.dtype

# 获取张量所在的设备
device = tensor_3d.device

3.张量的形状

张量的形状定义了其维度和每个维度上的大小。例如,形状为(2, 3, 4)的张量具有2行、3列和4个深度。形状对于理解和操作张量非常重要。

# 获取张量的形状
shape = tensor_3d.shape

# 改变张量的形状
reshaped_tensor = tensor_3d.view(3, 8)  # 将原始形状(2, 3, 4)变为(3, 8)

张量的原理

PyTorch中的张量是基于Tensor类实现的,它提供了对底层存储的抽象。

张量包含三个主要组件:

  • 存储(storage)
  • 形状(shape)
  • 步幅(stride)

1.存储

(Storage)存储是实际存储数据的地方,它是一块连续的内存区域。多个张量可以共享相同的存储,从而减少内存消耗。存储中的数据按照张量的形状进行排列。

# 获取张量的存储
storage = tensor_3d.storage()

2.形状(Shape)

张量的形状定义了其维度和每个维度上的大小。形状信息有助于解释存储中数据的组织方式。

# 获取张量的形状
shape = tensor_3d.shape

3.步幅(Stride)

步幅是指在存储中移动到下一个元素所需的步数。了解步幅有助于理解在张量中进行索引和切片时的性能。

# 获取张量的步幅
stride = tensor_3d.stride()

张量的操作

PyTorch提供了丰富的张量操作,包括数学运算、逻辑运算、索引和切片等。

这里列举最最常见的集中操作:

1.数学运算

# 加法
result_add = tensor_3d + 2

# 乘法
result_mul = tensor_3d * 3

# 矩阵乘法
matrix_a = torch.rand((2, 3))
matrix_b = torch.rand((3, 4))
result_matmul = torch.mm(matrix_a, matrix_b)

2. 逻辑运算

# 大小比较
result_compare = tensor_3d > 0.5

# 逻辑运算
result_logical = torch.logical_and(result_add, result_compare)

3. 索引和切片

# 索引
element = tensor_3d[0, 1, 2]

# 切片
sliced_tensor = tensor_3d[:, 1:3, :]

4. 形状操作

# 改变形状
reshaped_tensor = tensor_3d.view(3, 8)

# 转置
transposed_tensor = tensor_3d.transpose(0, 2)

5.广播

广播是一种自动扩展张量的操作,使得形状不同的张量可以进行逐元素的数学运算。

# 广播
tensor_a = torch.rand((1, 3, 1))
tensor_b = torch.rand((2, 1, 4))
result_broadcast = tensor_a + tensor_b

最后

今儿介绍的是关于PyTorch中张量的基础概念、原理以及常见操作。

张量作为深度学习中的基本数据结构,对于理解和实现神经网络非常关键。

相关内容

热门资讯

PHP新手之PHP入门 PHP是一种易于学习和使用的服务器端脚本语言。只需要很少的编程知识你就能使用PHP建立一个真正交互的...
网络中立的未来 网络中立性是什... 《牛津词典》中对“网络中立”的解释是“电信运营商应秉持的一种原则,即不考虑来源地提供所有内容和应用的...
各种千兆交换机的数据接口类型详... 千兆交换机有很多值得学习的地方,这里我们主要介绍各种千兆交换机的数据接口类型,作为局域网的主要连接设...
什么是大数据安全 什么是大数据... 在《为什么需要大数据安全分析》一文中,我们已经阐述了一个重要观点,即:安全要素信息呈现出大数据的特征...
全面诠释网络负载均衡 负载均衡的出现大大缓解了服务器的压力,更是有效的利用了资源,提高了效率。那么我们现在来说一下网络负载...
粉嫩如何诠释霸道 东芝M805... “霸道粉”是个什么玩意东芝M805拿过来的时候,笔者扑哧笑了,不是笑这款笔记本,而是笑这款产品的颜色...
如何允许远程连接到MySQL数... [[277004]]【51CTO.com快译】默认情况下,MySQL服务器仅侦听来自localhos...
30分钟搞定iOS自定义相机 最近公司的项目中用到了相机,由于不用系统的相机,UI给的相机切图,必须自定义才可以。就花时间简单研究...
如何利用交换机和端口设置来管理... 在网络管理中,总是有些人让管理员头疼。下面我们就将介绍一下一个网管员利用交换机以及端口设置等来进行D...
P2P的自白|我不生产内容,我... 现在一提起P2P,人们就会联想到正在被有关部门“围剿”的互联网理财服务。×租宝事件使得劳...