8 hunterlew

尚未进行身份认证

做一枚有理想的工科男! github网址:https://github.com/hunterlew

等级
TA的排名 8k+

Windows下pytorch的安装与入门

上班前的最后一个寒假,接触了pytorch框架。由于家里只有windows笔记本,因此在windows环境下安装。安装方法见https://zhuanlan.zhihu.com/p/26871672。我安装后碰到了如下问题,记录下来以便查阅:condainstall-cpeterjc123pytorchcuda80报错:UnsatisfiableError:Thefollowing...

2018-03-05 21:08:44

基于FPGA的卷积网络加速设计

    答辩完了,放上来毕设的最后一部分内容,CNN的硬件加速。大多数论文采用的FPGA加速大多基于HLS或是OpenCL,用高级语言编写的。我没有接触过,不知道转化为底层HDL效率如何。本科学了verilog,因此还是用的verilogHDL硬件语言设计的。    传送门如下:https://github.com/hunterlew/convolution_network_on_F...

2018-01-19 11:05:34

基于深度学习的雷达目标检测识别——写在毕业前

工作后很少上csdn了,大家有问题请移步github提问吧,我会尽快回复!---------------------------------分割线---------------------------------------------------研究生毕设做的雷达目标检测识别,把深度学习用在自然图像的那套东西迁移到SAR图像上,用的faster-rcnn。最近在做最后的整理和优化,代码刚...

2017-11-15 21:41:14

caffe在win10下的配置

由于某些原因,需要在windows下配置caffe,基本上是按照caffe的windows分支的readme上写的安装的。大致说一下流程:https://github.com/BVLC/caffe/tree/windows1、 安装准备VS2015,python3.5,matlab2017a,cuda8和cudnn。注意python版本不能是3.6,目前仅支持到3.5。我在安装的时候是

2017-11-09 08:36:48

CART之回归树构建

原文链接:https://cethik.vip/2016/09/21/machineCAST/一、概念CART全称叫Classification and Regression Tree。首先要强调的是CART假设决策树是二叉树,内部结点特征的取值只有“是”和“否”,左分支是取值为“是”的分支,有分支则相反。这样的决策树等价于递归地二分每个特征。

2017-08-19 21:39:23

Caffe SSD 配置与安装

为了跟进目标检测框架的最新进展,于是配置了SSD框架并成功运行demo,其中遇到不少坑记录下来。 1、假设CUDA、CuDNN、OpenBLAS、OpenCV等都已经安装完毕。我的版本是Ubuntu16.04+CUDA8.0+CuDNN5.0+OpenCV3.0。之前已成功配置过caffe-master。2、下载caffe-ssdgit clone git clonehttps

2017-06-23 14:18:06

caffe实战之classify.py解析

本文将对caffe/python下的classify.py代码以及相关的classifier.py和io.py进行解析。一、classify.py由最后的if __name__ == '__main__': main(sys.argv)代表该文件在命令行下运行,则运行main函数,参数存放在sys.argv中。在main函数定义中,分别判断并存入各类参数,分别如下:input_file

2017-05-31 11:12:32

caffe实战之训练并测试自己的数据

训练之前,确认caffe已经编译成功。本文以mstar数据库为例,介绍如何在caffe平台上训练卷及神经网络模型并进行测试。一、准备数据这个步骤是最繁琐,也最容易出错的一步,任何差池都会导致最终训练效果不如人意,建议多花时间检查这部分,确保数据集的质量。1、在data文件夹下新建文件夹mstar,并进入该目录,分别简历train和val文件夹。2、在train和val文件夹下分

2017-05-23 22:39:51

ubuntu+cuda8.0+opencv3 Caffe GPU环境配置

最近临近中期答辩,在总结一些以前碰到过的坑,以便后人乘凉。回顾了一下去年配置caffe的完整流程,去年双11买的神舟z7m电脑,性价比很高,显卡是GTX965m的,查了计算能力达5.2,刚买回来后就开始捣腾caffe环境下的配置。当时配置过程一波三折,主要卡在显卡驱动这一环节,因为Ubuntu对Nvidia显卡驱动的支持似乎不是很好。下面给出完整的配置流程。 一、 安装Ubuntu系统

2017-05-22 16:46:48

Faster-RCNN算法精读

读论文:《FasterR-CNN:TowardsReal-TimeObjectDetectionwithRegionProposalNetworks》 摘要:算法主要解决两个问题:1、提出区域建议网络RPN,快速生成候选区域;2、通过交替训练,使RPN和Fast-RCNN网络共享参数。 一、RPN网络结构RPN网络的作用是输入一张图像,输出一批矩形候选区域

2017-05-01 22:39:52

C++ 输入方法

一、字符串输入:1、面向单词的输入:cin>>使用空白(空格、制表符和换行符)确定字符串的结束位置。如果一次输入两个单词,中间隔着空格,则只读取第一个单词,并自动在结尾处添加空字符。而另一个单词会留在缓冲中,有可能被后面的输入读到。2、面向行的输入:1)getline,通过回车键输入的换行符来确定结尾,然后丢弃换行符,并用空字符取代之。调用:cin.getline()。有两个参

2017-02-04 10:23:45

C++ cout输出技巧

cout默认输出格式为十进制。如果要输出十六进制,输出前加:cout 如果要输出八进制,输出前加:cout

2017-02-04 09:58:26

深度学习之路—写在开题前

明天即将研究生开题答辩,旁边机器还在跑着程序验证最新的网络结构,在笔记本上敲打心情日记。接到深度学习目标识别的题目真是阴差阳错,今年4月份alphago获胜的时候,王老师表示很关心这个方向,希望我们也做一个“狗”出来。我们都把它当玩笑了,事后,我尝试接触神经网络的知识,就想轻碰这个坑,拿它预测个波形就行了,也没想到日后会成为研究方向。      正直同学们都很关注机器学习,无意间女票跟我提了

2016-10-15 20:58:11

Batch Normalization 学习

原文地址:http://blog.csdn.net/hjimce/article/details/50866313作者:hjimce一、背景意义本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Training by  Reducing Internal Covar

2016-08-21 14:13:18

深度学习UFLDL教程翻译之自我学习

一、概述       假设我们有足够强大的学习算法,得到较好结果的其中一种最靠谱的方法是给算法提供更多的数据。这验证了在机器学习的那句格言:“有时候获胜的不是谁有最好的算法,而是谁有最多的数据。”       也许有人总能得到有标记的数据,但这么做成本很高。特别地,研究人员已经采用极致的工具例如AMT(亚马逊土耳其机器人)来得到大量训练集。尽管拥有大量的人们人工标记的数据相比拥有大量的研究

2016-08-18 22:31:17

深度学习UFLDL教程翻译之PCA白化

一、引入       主成分分析(PCA)是一种降维算法,能大大加速你的无监督特征学习算法。更重要的是,理解PCA能让我们后面实现白化,这是一个对所有算法适用的重要的预处理步骤。       假设你在图像上训练你的算法。不过输入稍微有点冗余,因为图像中相邻的像素值是高度相关的。具体来说,假设我们在16*16的灰度图像块上训练。那么x∈R256是256维的向量,一个特征xj对应着图像中每个像

2016-08-13 22:46:01

深度学习UFLDL教程翻译之自动编码器

一、自动编码器目前为止,我们介绍了神经网络在有标签的训练样本的有监督学习中的应用.现在假设我们只有一个未标记的训练集{x(1),x(2),x(3),…},其中x是n维的.自动编码器神经网络是一种采用反向传播的无监督学习算法,让目标值和输入相等,即让y(i)=x(i).这是一个自动编码器:       自动编码器试图学习函数hW,b(x)≈x.换句话说,它试图学习恒等函数的逼

2016-08-10 21:51:16

深度学习UFLDL教程翻译之卷积神经网络(二)

一、概述一个卷积神经网络(CNN)是由一个或多个卷积层(通常伴随着降采样一步)构成,并加上一个或多个和在标准的多层神经网络一样的全连接层。CNN的结构是设计用于利用输入图像的2D结构(或其他2D输入例如语音信号)。这是由局部连接、权值共享以及一些引起平移不变特征的池化操作来实现的。CNN的另一个优点在于它们更容易训练而且比拥有相同数目的隐藏单元的全连接网络而言,参数更少。在这篇文章中,我们会讨

2016-08-09 21:53:46

深度学习UFLDL教程翻译之卷积神经网络(一)

A、使用卷积进行特征提取一、概述在前面的练习中,你解决了像素相对较低的图像的相关问题,例如小的图片块和手写数字的小图像。在这个节,我们将研究能让我们将这些方法拓展到拥有较大图像的更加实际的数据集的方法。二、全连接网络       在稀疏自编码器中,我们所做的设计选择是将所有隐藏层单元与输入单元全部连接。在我们处理的相对小的图像中(例如在稀疏自编码器作业中的8×8小块,MNIST数据

2016-08-07 20:54:35

深度学习UFLDL教程翻译之优化:随机梯度下降

一、概述批量方法,例如有约束方法BFGS,它在每次迭代中使用全部训练集来计算参数的下一次更新,这类方法很好地收敛于局部最优解。它们在框架实现下(例如minFunc)也能直接得到好的结果,因为它们几乎不用调整多少超参数。然而,在全部训练集上计算代价和导数在实践中经常运行很慢,而且有时候数据集太大,内存不足变得很难处理。批量优化方法的另一个问题是它在“在线”模式下难以加入新的数据。随机梯度下降(S

2016-08-06 23:03:31

查看更多

勋章 我的勋章
  • 专栏达人
    专栏达人
    授予成功创建个人博客专栏的用户。专栏中添加五篇以上博文即可点亮!撰写博客专栏浓缩技术精华,专栏达人就是你!
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!