自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 【立体匹配论文阅读】AANet: Adaptive Aggregation Network for Efficient Stereo Matching

AANet论文阅读

2023-03-09 11:25:21 679 1

原创 【立体匹配论文阅读】StereoNet: Guided Hierarchical Refifinement for Real-Time Edge-Aware Depth Prediction

StereoNet论文阅读

2023-03-07 14:44:28 394 1

原创 【立体匹配论文阅读】Pyramid Stereo Matching Network

Pyramid Stereo Matching Network论文阅读

2023-03-07 14:18:25 655 1

原创 漫谈ELMo

词嵌入在很长一段时间内对NLP领域有很大的推动的作用,以至于embedding已经成为NLP任务中的一个标准操作。而研究人员却发现,词嵌入虽好,但弊端也明显,于是乎,语言模型就上位了……如果说Word2Vec是NLP领域里面的一个重要里程碑,那么ELMo的诞生应该可以算得上另外一个里程碑了吧!最近我正是在学习ELMo,因此想整理一下跟大家探讨。词嵌入到底出了什么问题?词嵌入(如想详细了解可...

2019-08-15 15:38:57 680

原创 Attention Mechanism

注意力机制是一种很有用的提高措施,在机器翻译、图像描述生成、图像语义分割等方面都有很重要的作用。今天我想要重点回顾和学习一下注意力机制的各种使用场合。从机器翻译开始机器翻译,准确点说应该是神经机器翻译(NMT),从2014年出现,到目前(2019年),已经成为NLP领域里面最成功的一个应用。在传统机器翻译中,由于不同语种的语法各有不同,词序、表达方式的差异导致机器翻译最大的一个难题就是对齐...

2019-07-12 15:05:37 736

原创 Language Model and Recurrent Neural Networks (二)

本文是我去年十月份在公司的团队技术分享会里面分享过的内容,分享这个内容的初衷是我发现自己对RNN(本文均指Recurrent Neural Networks而非Recursive Neural Networks)比较陌生,想找个时间攻克一下,以便以后有此类工作需求可以快速上手。另外本文加入了CS224N关于语言模型和RNN的课堂内容。因此本文属于科普性质的文章,基本上RNN的细节会涉及到,但并非...

2019-06-29 17:04:14 420

原创 Language Model and Recurrent Neural Networks (一)

本文是我去年十月份在公司的团队技术分享会里面分享过的内容,分享这个内容的初衷是我发现自己对RNN(本文均指Recurrent Neural Networks而非Recursive Neural Networks)比较陌生,想找个时间攻克一下,以便以后有此类工作需求可以快速上手。另外本文加入了CS224N关于语言模型和RNN的课堂内容。因此本文属于科普性质的文章,基本上RNN的细节会涉及到,但并非...

2019-06-28 16:41:31 382

原创 Wide&Deep versus DeepFM

最近在回顾一下深度学习在推荐系统上的应用,重点回顾了两个比较著名的模型:Wide&Deep 和 DeepFM。刚好前者是谷歌研究员提出的,后者是有三位作者来自华为,又刚好最近这两家公司的话题性这么强……emmmmm推荐系统推荐系统的一般架构如下,主要包括两部分的算法: 图一 推荐系统一般架构其一是用户query进来的时候需要对其进行粗过滤,即图中retrieval部分,...

2019-06-09 23:51:43 1074

原创 Word Embeddings And Word Sense

最近在学习2019版的CS224N,把所听到的知识做成笔记,以便自己不时地回顾这些知识,另外还希望可以方便没有时间看课程的朋友们用来做个快速的overview(当然,亲自上课是最好的选择)。我也尽量地把所有课程的知识细节都写出来,以及一些相关的知识都牵扯进来。近年来NLP领域发展变化得比较大,语言模型已经开始大行其道,词嵌入技术差不多变成了只是一个稀疏向量的稠密化过程。尽管如此,我认为词嵌...

2019-05-29 13:29:19 1211

翻译 神经网络的提升方法(1)——交叉熵

本文是电子书Neural Networks and Deep Learning的读书笔记,我不能保证自己理解是否有偏误或者忽略了原文的精彩地方,如有请读者指出,另外还是推荐英文阅读能力较强的读者直接去阅读原书,因为写得真的不错。原书地址:http://neuralnetworksanddeeplearning.com/#_motz_神经网络训练的提升可以由四个方面进行:使用能反馈更大误差信号的...

2018-08-27 11:38:21 4560 3

翻译 模型融合方法

本文是《KAGGLE ENSEMBLING GUIDE》一文的阅读笔记,忽略了一些不感兴趣的内容,原文请阅:https://mlwave.com/kaggle-ensembling-guide/

2017-05-05 09:36:50 50215 6

翻译 神经网络的提升方法(2)——正则化

在本文之前,我写过一篇关于交叉熵的译文,本文则是电子书《Neural Networks and Deep Learning》的第三章第二部分。如需查看之前关于交叉熵的文章,请打开http://blog.csdn.net/sinat_29819401/article/details/58716834

2017-03-08 23:11:44 16646 9

翻译 深度森林论文阅读笔记

本文是《机器学习》作者周志华教授和冯霁博士在2017年2月28日发表的论文《Deep Forest: Towards An Alternative to Deep Neural Networks》的阅读笔记,因此本文不会一字一句的翻译过来,但会加入我自己的理解,如有谬误请读者指正。新智元(http://chuansong.me/n/1621631051734)对此文也有一篇翻译。周志华教授

2017-03-04 00:18:34 24448 16

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除