admin管理员组

文章数量:1561815

文章目录

  • 前言
  • 环境
  • Tensor初识
    • tensor 与 numpy
    • tensor 使用
      • 基本使用
    • numpy与tensor转换
    • 有“_”尾巴的函数
    • 梯度
      • 梯度使用
      • 取消梯度
      • 复制tensor
  • 数据加载与转换
    • 类型转换
      • Compose “链式转化”
    • 数据处理
      • 自带数据集
      • 数据加载
      • 自定义获取数据
  • TensorBoard 可视化工具箱
    • 目标
    • 神经网络
    • 动手搭建线性回归模型
    • 非线性模型搭建
    • TensorBoard 直观显示
  • CIRAF10网络搭建
    • 卷积
      • 卷积的概念
      • 卷积语文含义
      • 数学表现
      • 案例
        • 状态影响
        • 运算
      • 图像处理领域的卷积
        • 相似点
        • 图像卷积
        • 卷积核/卷积层
        • 池化层
        • 全连接层
    • 网络搭建
      • 卷积API
        • Conv2d卷积函数
        • padding
          • 计算输出的大小
        • MaxPool2d 池化
        • Flatten 打平
    • 网络搭建
        • 计算卷积核大小
  • 网络训练与模型加载
    • 模型训练完整步骤
    • 模型保存与加载
    • GPU训练
    • “借鸡生蛋“使用Free远程平台
    • 模型使用
  • 部署
    • 环境
    • 项目结构
    • 前端
      • 图片上传
      • 结果显示
    • 后端
      • 模型部署
      • 路由
      • 业务代码
  • 总结

前言

刚好有空顺便整理一下以前学习pytorch的笔记,做一个梳理,便于后面的学习~
在学习pytorch之前,建议可以先掌握numpy,本质上来说,最早的版本来说,pytorch其实是numpy的增强,让矩阵可以在GPU里面运行,之后具备自动求导的特性,也就是咱们的梯度,学过线性回归的朋友应该知道,我们是通过损失函数来计算修正我们的未知参数的,那么在这里手算的话我们就需要求导,那么在pytorch里面肯定不是直接求导,而是通过记录变化值,也就是通过当前参数的变化值来进行反向修改。那么这个东西就叫做梯度,可以正向传播,也可以反向传播。
之后就是pytorch官方给咱们提供的一些API,例如自制数据集,常用神经网络,CNN 卷积核等。

环境

这里注意一下,我的环境是Windows10,N卡,装的pytorch版本是GPU版本,CUDA驱动版本是10.1(10.2也是一样的)

可以看到,

本文标签: 最全上手流程快速Pytorch