您的位置:首页 > 房产 > 家装 > 毕业设计动漫网页设计_制作网站的公司办什么营业执照_软文广告经典案例200字_国外外链平台

毕业设计动漫网页设计_制作网站的公司办什么营业执照_软文广告经典案例200字_国外外链平台

2024/12/23 9:19:58 来源:https://blog.csdn.net/2401_86807530/article/details/143950664  浏览:    关键词:毕业设计动漫网页设计_制作网站的公司办什么营业执照_软文广告经典案例200字_国外外链平台
毕业设计动漫网页设计_制作网站的公司办什么营业执照_软文广告经典案例200字_国外外链平台

import torch

from PIL import Image

from torchvision import transforms

#  获取元素值 tensor.item() 返回一个数值 只能是tensor里面有一个数字的

# 我们可以把单个元素tensor转换为Python数值,这是非常常用的操作

# tensor 里面超过了1个数字就不行

def get_item():

    t1=torch.tensor(1)

    t2=torch.tensor([[[100]]])

    x=t1.item()

    print(x)

    x=t2.item()

    print(x)

    pass

# 元素值四则运算

def compute():

    # 加减乘除

    torch.manual_seed(666)

    t1=torch.rand(3,3)

    # 末尾有下划线的直接是改变原来的数据

    # 对tensor里面的每个元素都 进行 四则运算操作

    # + add

    t1_add=t1.add(1)

    t1.add_(1)

    # - sub

    t1_sub=t1.sub(-1)

    t1.sub_(1)

    # * / 次方同理  mul div  pow

   

    # 也可以通过运算符号来进行 tensor类里面有魔术方法实现了 四则 次方 // % 都可以 这个没有对原来数据进行改变的

    t2=t1+10

    t3=t1**2

    print(t3)

    pass

def hadamard():

    # 两个tensor相同位置的元素相乘 两个tensor形状要一样

    # 阿达玛积指的是矩阵对应位置的元素相乘,可以使用mul函数或者*来实现 其实就是上面的乘法换成了 两个tensor 相乘

    data1 = torch.tensor([[1, 2, 3], [4, 5, 6]])

    data2 = torch.tensor([[2, 3, 4], [2, 2, 3]])

    print(data1 * data2)

    print(data1.mul(data2))

    pass

# 点积

def dotProduct():

    # 就是矩阵乘法的意思 第一个矩阵列数 和第二个矩阵的行数要相同 结果矩阵的形状为(第一个矩阵的行,第二个矩阵的列)

   

    data1 = torch.tensor([

        [1, 2, 3],  

        [4, 5, 6]

    ])

    data2 = torch.tensor([

        [3, 2],

        [2, 3],

        [5, 3]

    ])

    # 使用@或者matmul完成Tensor的乘法。  @ 是点积的符号 a@b  matmul和 mm是tensor的方法 mm只能用于二维的矩阵乘法 就是只有行列的 一般都是二维或者三维 乘法没有交换律注意顺序

    # mm方法也可以用于矩阵相乘 但是只能用于2维矩阵即:$$m*k$$和$$k*n$$ 得到$$m*n$$ 的矩阵

    res1=data1 @ data2

    res2=data1.matmul(data2)

    res3=data1.mm(data2)

    pass

# 索引操作

def index():

    torch.manual_seed(666)

    t1=torch.rand(3,5,5)

    # 跟np数组嵌套的索引差不多 就是嵌套列表的取法 套几个索引

    t1[1]

    t1[1,1]

    t1[1,1,1]

    # 取范围 第一维取 0 和1 取出来的矩阵在取 1

    t1[0:2,1]

    t1[0:2,1:3]

   

    t1[[1,2]] # 取第一维的1和3 在一个维度上取多个的时候传个矩阵进去 这个不会降维的 取出来就相当于重新组了一下 不是切片

    t1[[1,2],[1,1]] # 对应 矩阵取出来 [1,1] [2,1]

    # 也可以进行布尔运算 跟np差不多 返回的是一个布尔矩阵 布尔矩阵可以拿去 返回为ture的元素 返回出来变为1维的了

    x2=t1>0.5

    # print(x2)

    # print(t1[x2])

    # print(t1[t1>0.5])

    # 行级别的条件索引

    t2=torch.rand(5,5)

    x3=t2[:,1]>6 # 所有行的第一列大于6的 前面是行范围 后面是范围  对应一维范围 二维范围 三维范围。。。。 最后一维范围只能是一个数 对最后一维进行判断或者赋值

    t1[0:2,0:2,1]>0.5

    t2[x3]

    # 索引也可以拿来赋值 就是修改数据 取索引然后赋值

    t2[:,:]=6

    print(t2)

    pass

# 张量的拼接 torch的方法 返回一个新的tensor

# 在 PyTorch 中,cat 和 stack 是两个用于拼接张量的常用操作,但它们的使用方式和结果略有不同:

# - **cat**:在现有维度上拼接,不会增加新维度。

# - **stack**:在新维度上堆叠,会增加一个维度。

def splice():

    torch.manual_seed(666)

    t1=torch.rand(3,3)

    t2=torch.rand(3,3)

    # torch.cat(concatenate 的缩写)用于沿现有维度拼接张量。换句话说,它在现有的维度上将多个张量连接在一起。 就是np数组的拼接方式

    # torch.cat() 传参 :第一个 数组 里面是要拼接的tensor 第二个 dim 拼接的轴 注意 拼接的轴 另一个轴的数据量要一样 拼接的轴数据量可以不一样

    # 拼接 一个人完了再下一个人

    t3=torch.cat([t1,t2],dim=0)

    # print(t3)

    # 堆叠 交替添加

    # torch.stack 用于在新维度上拼接张量。换句话说,它会增加一个新的维度,然后沿指定维度堆叠张量 两个矩阵必须size一样

    t4=torch.stack([t1,t2],dim=2)

    print(t4.shape)

    # stack 补充解析

    # 1. 从维度的视角看 会新加一个维度 维度的大小为进行stack矩阵的数量 然后这个位置在新tensor的位置就是dim

    # 2. 从矩阵变换的视角看 比如二维矩阵  dim = 0 就是自己创建一个新的数组然后把 进行stack的两个矩阵放进去

    # dim=1 就是两个矩阵 轮流取第一层的元素组成一个新矩阵的第一层

    # dim=2 就是两个矩阵 轮流取第二层的元素组成新矩阵的第二层 新矩阵的第一层为

    pass

# stack应用 把Image的tensor 转为 cv2的tensor

def demo1():

    transform1=transforms.ToTensor()

    img1=Image.open("assets/image/1.png")

    # img1_t1=transform1(img1)

    img1_t1=torch.rand(4,5,6,7)

    print(img1_t1.shape)

    img1_t2=torch.stack([img1_t1[0],img1_t1[1],img1_t1[2],img1_t1[3]],dim=3)

    print(img1_t2.shape)




 

if __name__=="__main__":

    # get_item()

    # compute()

    # hadamard()

    # dotProduct()

    # index()

    # splice()

    # demo1()

    splice()

    pass

import torch

from PIL import Image

from torchvision import transforms

def sci():

    torch.set_printoptions(sci_mode=False)

    return 0

# 形状操作

# reshape torch 的方法 改玩后的形状 的 元素个数要跟原来的一样 比如原来是10*10 改完后的元素个数必须为100 返回新的tensor

# 可以用于将张量转换为不同的形状,但要确保转换后的形状与原始形状具有相同的元素数量。

def reshape1():

    torch.manual_seed(666)

    t1=torch.rand(20,4)

    # print(t1)

    t2=torch.reshape(t1,(4,20)) # 传入被改的tensor 和形状

    # 可以有一个维度为-1 代表程序自己通过其他维度的元素数量 自己算这个维度的元素数量

    t3=torch.reshape(t1,(40,-1))

    print(t3)

    pass

# 也可以用view变形 tensor的方法

# 这个只能对张量里面的元素是内存连续的 才可以

# 对刚创建出来的tensor进行操作后 就很容易内存不连续 比如转置

# 返回的是原始张量视图,不重新分配内存,效率更高; 比reshape快  这个相当于浅拷贝 不会开新的内存 就是把原来的内存重新排列一下下标

def view1():

    torch.manual_seed(666)

    t1=torch.rand(20,4)

    t2=t1.view(4,20)

    t2[:,-1]=6

    print(t2)

    print(t1)

    pass

# 交换维度 在二维矩阵上像转置一样

# transpose  troch 方法 跟view 一样返回的是原tensor的视图 浅拷贝

# permute tensor 方法 返回一个新的  对维度重新排列 不是浅拷贝

def transpose1():

    torch.manual_seed(666)

    t1=torch.rand(20,4)

    t3=torch.rand(20,4,3)

    t2=torch.transpose(t1,0,1) #  传入tensor和要交换的维度

    t4=torch.transpose(t3,1,2)

    # print(t4.shape)

    t5=t3.permute(1,2,0) # 传入 维度  传入维度的顺序为新的 tensor的维度排序 交换维度

    pass

# tensor展平

# flatten tensor 方法

# flatten 用于将张量展平为一维向量

def flatten1():

    torch.manual_seed(666)

    t1=torch.rand(20,4,3)

    t2=t1.flatten() # 传入开始 展平的层数 和结束展平的层数

    sci()

    print(t2)

    pass

# 升维和降维

# 在后续的网络学习中,升维和降维是常用操作,需要掌握。 tensor 方法 返回新的

# - **unsqueeze**:用于在指定位置插入一个大小为 1 的新维度。 加个[]

# - **squeeze**:用于移除所有大小为 1 的维度,或者移除指定维度的大小为 1 的维度

def squeeze():

    # 降维 一般用于 那些维度的元素数量为1的 直接就删掉了那个维度

    torch.manual_seed(666)

    t1=torch.rand(20,4,3,1,1)

    t2=t1.squeeze() # 传入要删除的维度 默认全部 大小为1 的维度都要删

    print(t2)

    pass

# 升维

def unsqueeze():

    # 升维 在一个维度上 加一个维度 一般都在指定维度的前面

    torch.manual_seed(666)

    t1=torch.rand(20,4,3,1,1)

    t2=t1.unsqueeze(2) # 传入要删除的维度 默认全部 大小为1 的维度都要删

    print(t2.shape)

    pass

# 分割

# 可以按照指定的大小或者块数进行分割。

# chunk  torch方法 按照传入的块数分割 平均 分完后元素的行数个数是平均的 列是最后被分的

# split  按照传入的每一块的元素 的行数分割

# 返回的都是 元组

def split1():

    torch.manual_seed(666)

    t1=torch.rand(20,4)

    t2=torch.chunk(t1,20)

    t3=torch.split(t1,2)

    print(t3[0].shape)

# 广播机制 跟numpy差不多

# 广播机制

# 广播机制允许在对不同形状的张量进行计算,而无需显式地调整它们的形状。广播机制通过自动扩展较小维度的张量,使其与较大维度的张量兼容,从而实现按元素计算。

# 广播机制规则

# 广播机制需要遵循以下规则:

# - 每个张量的维度至少为1

# - 满足右对齐

# 被广播的那个矩阵 的被广播的维度大小为1


 

if __name__=="__main__":

    # reshape1()

    # view1()

    # transpose1()

    # flatten1()

    # squeeze()

    # unsqueeze()

    split1()

    pass

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com