转载自:http://blog.csdn.net/wangli0519/article/details/73004985
卷积神经网络中Inception模块是在在普通卷积和深度可分卷积操作之间一种中间状态。基于此,深度可分卷积可理解为最大数量tower的INception模块... waitig 3年前 (2017-11-15) 1221℃ 1评论 1赞
图示池化层(前向传播)
池化层其实和卷积层有点相似,有个类似卷积核的窗口按照固定的步长在移动,每个窗口做一定的操作,按照这个操作的类型可以分为两种池化层:
输入参数如下:
输入: 1 * 3 * 4 * 4
池化核: 4 * 4
pad: 0
步长:2
输出参数如下:
输出:1 ... waitig 3年前 (2017-10-19) 1311℃ 2评论 0赞
目标检测是机器学习领域很重要也很具有挑战性的一个分支,目标检测需要同时完成图像分割和子图分类两项task,比图像分类更具难度。最近几年,深度学习在图像处理上有很多成功的尝试,而目标检测领域也出现了一些很好的方法。本文主要介绍RPN-based的系列方法,包括R-CNN、Fast... waitig 3年前 (2017-10-08) 1140℃ 0评论 0赞
课程介绍
本课程介绍Robot Framework基础使用方法,以实战方式让同学理解何谓自动化测试(Test Automation)以及ATDD(Acceptance Test-Driven Development),一方面利用原生丰富的库理解Robot Framework的弹性... waitig 3年前 (2017-09-21) 746℃ 0评论 0赞
感觉刚才的代码不够给力,所以再保存一份基于cnn的手写数字自识别的代码
# -*- coding: utf-8 -*-import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_d... waitig 3年前 (2017-09-13) 1715℃ 0评论 0赞
论文: YOLO9000:Better,Faster,Stronger
论文链接:https://arxiv.org/abs/1612.08242
YOLO9000是CVPR2017的最佳论文提名。首先讲一下这篇文章一共介绍了YOLOv2和YOLO9000两个模型,二者略有不同... waitig 3年前 (2017-09-13) 1174℃ 0评论 0赞
#[batch, 28, 28, 1]
shape = x_u_in.get_shape().as_list()
##[batch*N, 28, 28, M],y_u的shape是[batch,class_num]
y_tiled_u = tf.tile(y_u[:, None,... waitig 3年前 (2017-09-12) 713℃ 0评论 0赞
一、GoogleNet模型简介
GoogleNet和VGG是2014年imagenet竞赛的双雄,这两类模型结构有一个共同特点是go deeper。跟VGG不同的是,GoogleNet做了更大胆的网络上的尝试而不是像VGG继承了Lenet以及AlexNet的一些框架,该模型... waitig 3年前 (2017-09-11) 834℃ 0评论 0赞
一、VGGNet模型简介
VGGNet由牛津大学的视觉几何组(Visual Geometry Group,简称VGG)提出的,在ILSVRC-2014中取得了定位任务第一名和分类任务第二名,它总共有19层。其突出贡献在于证明使用很小的卷积(3*3)来增加网络深度可以有效提升... waitig 3年前 (2017-09-11) 1139℃ 0评论 0赞
今天听kk讲课,听到了一种新的处理卷积神经网络的思路。
传统的cnn是将数据还原成二维的图像,再利用卷积核去卷积,kk今天提了一种叫做 可控受限野神经网络层结构的 理论。
首先提一个问题,如何在将图像降维成一维时依然保留图像的各个部分之间的空间关系,也就是保留图像的区域相... waitig 3年前 (2017-09-09) 867℃ 0评论 0赞