Processing math: 100%

分类: 笔记

0

PyTorch-SGD-求函数最优值

面试遇到的一个基础问题:使用PyTorch求一个函数的最优值代码如下: import torch.optim as optim import torch # 参数为x,(1,1) x = torch.randn([1],requires_grad=True) def function(x): return x**2 - 2*x + 1 optimizer = optim.SGD([x

0

pytorch_basic

pytorch baisc最近用Pytorch的时候发现对于pytorch的一些细节问题掌握不够充分。包括整个框架的使用流程,Tensor的一些初始化,类型转换的细节也理解的不是很深。为了方便以后能够更从容的使用Pytorch,重新学习以下Pytorch的一些基础内容,并对重点做一下记录。 目前大致按照官方tutorials的顺序记录,随着学习的深入和对文档的查阅慢慢补充。 Basic - Te

0

Deep Learning Notes - Week 1

NLP入门计划第一周 - 笔记内容 了解感知机/多层感知机(MLP) 了解前向传播,反向传播,微积分, 偏导的基本知识 梯度下降,学习率,梯度裁剪 了解常用的激活函数,从tanhgelu 了解loss function, cross-entropy, 平方差 笔记由于之前有过一点深度学习基础,不算是完全从零开始学起,此次做笔记的目的在于加深对深度学习基础知识的了解,特别是补了一下一些数