coding...
PyTorch introduction2 PyTorch introduction2
本文介绍了使用pytorch 建立神经网络的一些步骤: 如何定义网络 如何定义损失函数 如何反向传播 并介绍了一个训练图片分类器的实例本文参考自DEEP LEARNING WITH PYTORCH: A 60 MINUTE B
2019-04-26
PyTorch introduction1 PyTorch introduction1
本文介绍了pytorch 的一些基础知识,比如 tensors,operations等,还有pytorch 的自动微分机制本文参考自DEEP LEARNING WITH PYTORCH: A 60 MINUTE BLITZ Pyto
2019-04-26
cs231n assignment3 Network Visualization cs231n assignment3 Network Visualization
本文来自于 cs231n assignment3 NetworkVisualization这个作业,下面我总结了这个作业的知识点和一些编程技巧。 这个作业介绍了梯度上升法来生成新的图像,在训练模型的时候,我们定义一个损失函数来衡量模型的
2019-04-20
图像识别和分割 图像识别和分割
本文总结了 cs231n lecture11 的知识点,介绍了计算机视觉的一些方向: 语义分割:upsampling downsampling 图像分类和定位 多目标检测: RCNN Fast-RCNN Faster-RCNN YOLO
2019-04-20
CNN 结构 CNN 结构
本文总结了 cs231n lecture 10的知识点,介绍了常见的 CNN 结构 AlexNet VGG GoogLeNet ResNet AlexNet [Krizhevsky et al. 2012] 输入:227x227x3
2019-04-20
循环神经网络 循环神经网络
本文总结了 cs231n lecture 9的知识点,介绍了循环神经网络原理,以及 LSTM 模型循环神经网络(RNN)是一类用于处理序列数据的神经网络,可以扩展到更长的序列,大多数循环网络也能处理可变长度的序列。 需要一个额
2019-04-20
训练神经网络part2 训练神经网络part2
在测试的时候,需要注意 \(\mu_j\) 和 \(\sigma_j\) 不能用测试时的数据求得,需要用训练时的数据的移动平均值 上面的是对全链接神经网络的BN层,如果是对CNN,它的每一层输出层是 NxCxHxW,在 对每个 C
2018-12-08
训练神经网络part1 训练神经网络part1
激活函数 Sigmoid 将输入压缩至[0,1] 三个问题: 饱和神经元会杀死梯度 输出不是 0-centered,这样会导致梯度是恒正或恒负 exp() 计算量大 ReLU(Rectified Linear Un
2018-12-02
cs231n-two_layer_net-note cs231n-two_layer_net-note
import numpy as np ?np.maximum np.maximum 是 element-wise 取最大,同时也有broadcasting 机制 np.maximum([1,2,5],[2,3,4]) array(
2018-11-27
cs231n-softmax-note cs231n-softmax-note
import numpy as np np.log(10) 2.302585092994046 np.exp([1,2]) array([2.71828183, 7.3890561 ])比较下列的异同,通常broadcasting是
2018-11-27
cs231n-svm-note cs231n-svm-note
import numpy as np range 的用法 list(range(1,5)) [1, 2, 3, 4] list(range(5)) [0, 1, 2, 3, 4]np.random.choice 的用法· mask
2018-11-27
cs231n-knn-note cs231n-knn-note
import numpy as np 下面验证一下 np.concatenate 的用法a = np.array([[1,2],[3,4]]) b = np.array([[5,6],[7,8]]) x = [] x.append(a
2018-11-27
1 / 2