【基础篇】-tensor(张量)_tensor.div-程序员宅基地

技术标签: # Pytorch笔记  

【基础】-tensor(张量)

一.创建一个tensor

1.只分配空间

x1 = torch.Tensor(5, 3)          # 数据是随机的,只是分配了可见,没有初始化,所及数据是对应空间里的数据
print(x1)

输出:

tensor([[7.3470e-39, 8.9082e-39, 8.9082e-39],
        [1.0194e-38, 9.1837e-39, 4.6837e-39],
        [9.2755e-39, 1.0837e-38, 8.4490e-39],
        [9.9184e-39, 9.9184e-39, 9.0000e-39],
        [1.0561e-38, 1.0653e-38, 4.1327e-39]])

2.0-1分布

x2 = torch.rand(5, 3)            # 使用[0,1]分布(默认的)随机初始化数据,构建(5, 3)shape的数组
print(x2)

输出:

tensor([[0.0786, 0.0817, 0.5277],
        [0.3758, 0.9402, 0.2716],
        [0.0723, 0.3258, 0.7880],
        [0.9141, 0.7395, 0.1126],
        [0.9843, 0.5128, 0.9107]])

3.直接创建

x3 = torch.tensor([ [1,2,3,4],
                    [5,6,7,8]])
print(x3)

输出:

tensor([[1, 2, 3, 4],
        [5, 6, 7, 8]])

4.同一个数值

x4 = torch.full((5, 3), 6)
print(x4)

输出:

tensor([[6., 6., 6.],
        [6., 6., 6.],
        [6., 6., 6.],
        [6., 6., 6.],
        [6., 6., 6.]])

5.在一个区间内按一定步长

x5 = torch.arange(0, 100, 10)     # 从0到99,按步长为10进行生成
print(x5)

输出:

tensor([ 0, 10, 20, 30, 40, 50, 60, 70, 80, 90])

或者:
在一定区间内均匀生成多少份,步长自动计算

x6 = torch.linspace(0, 100, 10)   # 在0到100均匀生成10份
print(x6)

输出:

tensor([  0.0000,  11.1111,  22.2222,  33.3333,  44.4444,  55.5556,  66.6667,
         77.7778,  88.8889, 100.0000])

这里可见看出来使用torch.linspace包含end,0到100分成10个数,相对于在0到100的线段上均匀定9个点,100/9 = 11.111111······,所以,步长为11.11111.
如果生成11份,步长就为10了。
输出:

tensor([  0.,  10.,  20.,  30.,  40.,  50.,  60.,  70.,  80.,  90., 100.])

6.特殊矩阵

# 特殊矩阵
x7 = torch.zeros(5, 3)          # 全0矩阵
print(x7)

x8 = torch.ones(5, 3)           # 全1矩阵
print(x8)

x9 = torch.eye(3, 3)            # 单位阵
print(x9)

x10 = torch.eye(5, 3)           # 当输入shape不是方阵时,一部分是单位阵,多出来的部分为0
print(x10)

输出:

tensor([[0., 0., 0.],
        [0., 0., 0.],
        [0., 0., 0.],
        [0., 0., 0.],
        [0., 0., 0.]])
        
tensor([[1., 1., 1.],
        [1., 1., 1.],
        [1., 1., 1.],
        [1., 1., 1.],
        [1., 1., 1.]])
        
tensor([[1., 0., 0.],
        [0., 1., 0.],
        [0., 0., 1.]])
        
tensor([[1., 0., 0.],
        [0., 1., 0.],
        [0., 0., 1.],
        [0., 0., 0.],
        [0., 0., 0.]])

7.生成一个与已知tensor的shape相同的tensor

x11 = torch.rand_like(x10)
print(x11)

输出:

tensor([[0.2761, 0.7960, 0.0800],
        [0.3035, 0.3525, 0.5574],
        [0.3570, 0.5426, 0.4790],
        [0.3504, 0.3996, 0.1984],
        [0.5939, 0.3260, 0.6721]])

8.从numpy转

x12 = np.random.rand(5, 3)
print(x12)
x12 = torch.from_numpy(x12)
print(x12)

输出:

[[0.14858865 0.18512316 0.97759539]
 [0.96559993 0.75191884 0.1561388 ]
 [0.71575248 0.88542421 0.29086326]
 [0.67362585 0.00512253 0.34022816]
 [0.69759491 0.25110932 0.71962754]]
tensor([[0.1486, 0.1851, 0.9776],
        [0.9656, 0.7519, 0.1561],
        [0.7158, 0.8854, 0.2909],
        [0.6736, 0.0051, 0.3402],
        [0.6976, 0.2511, 0.7196]], dtype=torch.float64)

二.tensor的属性

x2 = torch.rand(5, 3)            # 使用[0,1]分布(默认的)随机初始化数据,构建(5, 3)shape的数组
print(x2)
print(x2.size())   # (列,行)
print(x2.shape)    # (列, 行)
print(x2.dtype)    # 数据类型

输出:

tensor([[0.6725, 0.6270, 0.0352],
        [0.0420, 0.4865, 0.7263],
        [0.9950, 0.3957, 0.3868],
        [0.3802, 0.3337, 0.0465],
        [0.0089, 0.7211, 0.1279]])
torch.Size([5, 3])
torch.Size([5, 3])
torch.float32

三.tensor的操作

1.加
import torch

x1 = torch.randint(0, 10, (5, 3), dtype=torch.float)
print(x1)

x2 = torch.eye(5, 3)
print(x2)

# 1
print(x1 + x2)
# 2
print(torch.add(x1, x2))
# 3
print(x1.add(x2))
# 4
sum = torch.Tensor(5, 3)     # 预先分配空间
torch.add(x1, x2, out=sum)       # 加的结果保存在sum里
print(sum)

输出:

tensor([[5., 5., 8.],
        [9., 3., 8.],
        [9., 8., 3.],
        [5., 5., 6.],
        [6., 9., 5.]])
        
tensor([[1., 0., 0.],
        [0., 1., 0.],
        [0., 0., 1.],
        [0., 0., 0.],
        [0., 0., 0.]])
        
tensor([[6., 5., 8.],
        [9., 4., 8.],
        [9., 8., 4.],
        [5., 5., 6.],
        [6., 9., 5.]])
        
tensor([[6., 5., 8.],
        [9., 4., 8.],
        [9., 8., 4.],
        [5., 5., 6.],
        [6., 9., 5.]])
        
tensor([[6., 5., 8.],
        [9., 4., 8.],
        [9., 8., 4.],
        [5., 5., 6.],
        [6., 9., 5.]])
        
tensor([[6., 5., 8.],
        [9., 4., 8.],
        [9., 8., 4.],
        [5., 5., 6.],
        [6., 9., 5.]])
tensor1.add()和tensor1.add_()的区别

这个算是和python的特性一致,不加下划线的第一种就是普通的加法,不会改变tensor1的内容。而加了下划线,即第二种,加的结果会赋值给tensor1。
例子:

print(x1.add(x2))
print(x1)
print(x1.add_(x2))
print(x1)

输出:

tensor([[5., 8., 9.],
        [2., 4., 3.],
        [6., 2., 9.],
        [3., 1., 3.],
        [8., 5., 9.]])
        
tensor([[4., 8., 9.],
        [2., 3., 3.],
        [6., 2., 8.],
        [3., 1., 3.],
        [8., 5., 9.]])
        
tensor([[5., 8., 9.],
        [2., 4., 3.],
        [6., 2., 9.],
        [3., 1., 3.],
        [8., 5., 9.]])
        
tensor([[5., 8., 9.],
        [2., 4., 3.],
        [6., 2., 9.],
        [3., 1., 3.],
        [8., 5., 9.]])
其余运算

其他的减法,乘法,除法均可使用:-,*,/。同时也可以使用

  • torch.sub() 减法
  • torch.mul() 乘法,只是简单的对应位置相乘,不是矩阵的乘法
  • torch.div() 除法,对应位置相除

或者

  • tensor1.sub(tensor2)
  • tensor1.mul(tensor2)
  • tensor.div(tensor2)
    上面三种加也可以加下划线,和add的例子相同。

其中,如果被除数为0,会出现这样的结果:

tensor([[9., inf, inf],
        [inf, 6., inf],
        [inf, inf, 0.],
        [nan, inf, inf],
        [inf, inf, inf]])

上面的三种运算中torch.sub()这种也都可以添加out=.

此外,还有很多其他的运算,基本都比较简单。

可能的一些错误
RuntimeError: expected backend CPU and dtype Float but got backend CPU and dtype Long

这种情况,根据提示信息就是数据的类型不对。
一般可以在创建tensor的时候添加dtype=torch.float类似的语句来改。也可以使用tensor1.float()来修改

查看tensor的数据类型时:使用tensor1.dtype

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/weixin_40802676/article/details/104231745

智能推荐

用OCC+VS+Qt创建并显示一个几何_occ opengldriver-程序员宅基地

文章浏览阅读1.7k次,点赞2次,收藏25次。用OCC+VS+Qt创建并显示一个几何_occ opengldriver

Unity学习心得_unity课程总结心得-程序员宅基地

文章浏览阅读4.2k次,点赞2次,收藏12次。Unity学习心得第一个项目 Roll A Ball1.基本模型和场景操作双击Cube,表示聚焦(在Scene场景中)或者按下 F键Persp:透视视图 (会产生近大远小) ISO:平行视野(不会产生近大远小的效果)2.世界坐标系和局部坐标系:世界坐标:以世界原点为中心的坐标 局部坐标:以父节点的中心_unity课程总结心得

maven的下载与安装教程(超详细)_maven安装-程序员宅基地

文章浏览阅读10w+次,点赞432次,收藏1.1k次。前言本篇文章是基于win10系统下载安装Maven的教程。一、 Maven介绍1. 什么是Maven​ Maven是一个跨平台的项目管理工具。作为Apache组织的一个颇为成功的开源项目,其主要服务于基于Java平台的项目创建,依赖管理和项目信息管理。maven是Apache的顶级项目,解释为“专家,内行”,它是一个项目管理的工具,maven自身是纯java开发的,可以使用maven对java项目进行构建、依赖管理。2. Maven的作用依赖管理依赖指的就是是 我们项目中需要使用的第三方_maven安装

研究生如何读文献 写论文 发文章 毕业论文_研究生一天读多少文献-程序员宅基地

文章浏览阅读2.1k次,点赞3次,收藏13次。研究生论文写作步骤1. 先看综述,后看论著。看综述搞清概念,看论著掌握方法。2. 早动手在师兄师姐离开之前学会关键技术。3. 多数文章看摘要,少数文章看全文。掌握了一点查全文的技巧,往往会以搞到全文为乐,以至于没有时间看文章的内容,更不屑于看摘要。真正有用的全文并不多,过分追求全文是浪费,不可走极端。当然只看摘要也是不对的。4. 集中时间看文献,看过总会遗忘。看文献的时间越分散_研究生一天读多少文献

微光app电脑版_智米电暖器智能版1S体验:全面领跑AIoT、将智能生活进行到底-程序员宅基地

文章浏览阅读547次。【科技犬体验】2019年10月15日,智米正式推出了旗下电暖器新品——智米电暖器1S和智米电暖器智能版1S对于没有集中供暖的长江中下游地区居民而言,电暖器是不折不扣的"保命神器"。而在深秋的北方,昼夜温差较大,这种时候使用灵活、易于搬运的电暖器也成为更加明智的选择。在北方每年的冬季,室内温度就直接关系着大家在家的舒适度,而对于室内温度不达标的用户,购买电暖器就成为几乎唯一的选择。科技犬已经入手智米..._智米电暖器智能版app

《Hadoop与大数据挖掘》——2.6 TF-IDF算法原理及Hadoop MapReduce实现-程序员宅基地

文章浏览阅读312次。本节书摘来自华章计算机《Hadoop与大数据挖掘》一书中的第2章,第2.6节,作者 张良均 樊哲 位文超 刘名军 许国杰 周龙 焦正升,更多章节内容可以访问云栖社区“华章计算机”公众号查看。2.6 TF-IDF算法原理及Hadoop MapReduce实现2.6.1 TF-IDF算法原理原理:在一份给定的文件里,词频(Term Frequency,..._hadoop mapreduce如何实现实现tf-idf

随便推点

Docker删除容器命令_docker delete-程序员宅基地

文章浏览阅读2.6w次,点赞4次,收藏25次。删除容器 之前要先docker stop 容器1. 删除指定容器docker rm -f <containerid>12. 删除未启动成功的容器docker rm $(docker ps -a|grep Created|awk '{print $1}')或者docker rm $(docker ps -qf status=created)1233. 删除退出状态的容器docker rm $(docker ps -a|grep Exited|awk '{print $1}_docker delete

乌龙(一)ntp对时_ntp对时 时区-程序员宅基地

文章浏览阅读107次。emmm…今天新搭了一套虚拟机(安装时一步过了 啥也没配置),操作时发现系统时间一直不对,于是安装了ntp跟阿里云等时钟源对过,发现一对时系统就变成了昨天,我把系统时间强制改为了现在,再次对时,时间又回退到昨天,最后发现时区选错了,选成了PST。解决方法cp -f /usr/share/zoneinfo/Asia/Shanghai /etc/localtime..._ntp对时 时区

数据结构_实验三_二叉树的基本操作_二叉树叶子节点实验-程序员宅基地

文章浏览阅读6.3k次,点赞18次,收藏81次。1.需求分析1.1 输入数据建立二叉树,分别以前序、中序、后序的遍历方式显示输出二叉树的遍历结果。输入输出形式:124$$5$3$$preOrder1 2 4 5 3inOrder4 2 5 1 3afterOrder4 5 2 3 1功能:利用树存储数据,采用递归的方式做到先序、中序、后序三种遍历方式输出数据范围:0~9测试数据:    124$$5$3$$      ..._二叉树叶子节点实验

P5738 【深基7.例4】歌唱比赛-程序员宅基地

文章浏览阅读311次。题目描述n(n\le 100)n(n≤100)名同学参加歌唱比赛,并接受m(m\le 20)m(m≤20)名评委的评分,评分范围是 0 到 10 分。这名同学的得分就是这些评委给分中去掉一个最高分,去掉一个最低分,剩下m-2m−2个评分的平均数。请问得分最高的同学分数是多少?评分保留 2 位小数。输入格式无输出格式无输入输出样例输入 ..._【深基7.例4】歌唱比赛

Vue简明实用教程(04)——事件处理_vue html里面如何直接写事件函数-程序员宅基地

文章浏览阅读1.1k次,点赞4次,收藏5次。在Vue中可非常便利地进行事件处理,例如:点击事件、鼠标悬停事件等。_vue html里面如何直接写事件函数

南京邮电大学离散数学实验一(求主析取和主合取范式)-程序员宅基地

文章浏览阅读4.5k次,点赞15次,收藏67次。南京邮电大学离散数学实验一(求主析取和主合取范式)_离散数学实验