4 王嘉宁

学生身份

我要认证

研究方向:JavaWeb开发、微信二次开发、机器学习、深度学习、知识图谱、自然语言处理、计算机视觉、强化学习

等级
TA的排名 2w+

论文解读:Graph Convolutional Networks for Text Classifification

论文解读:Graph Convolutional Networks for Text Classifification  先前的文本分类方法是基于CNN或RNN进行的,只能单独的对文本自身的上下文进行语义提取,而不能够对文本之间的相关信息进行表示。随着图结构在NLP领域的大放光彩,将图引入文本分类是新的思路。一、简要信息序号属性值1模型名称Text-GCN2所属领域自然语言处理3研究内容文本分类4核心内容Text Classification,

2020-08-06 14:31:47

基于PCA的图像压缩实现

基于PCA的图像压缩实现注:该内容为校内课程实验,仅供参考,请勿抄袭!源码:PPCA-for-Image-Compession摘要  随着计算机互联网的发展和数据的日益增长,如何高效的处理和传输海量数据成为大数据处理的瓶颈问题,尤其对于图像类数据,通常其占有空间大,包含信息量丰富,如何对图像数据进行压缩吸引广大研究者们的注意。本文通过调研PCA图像压缩的相关工作,认为当前方法依赖于整个数据集,压缩效率低、占据内存量大的问题,本文提出一种分片PCA(P-PCA)图像压缩算法,旨在通过对图像进行分片,并

2020-08-02 17:50:10

对话生成的新探索——从模仿学习到逆强化学习

论文解读:Dialogue Generation: From Imitation Learning to Inverse Reinforcement Learning  对话生成是一个常见的自然语言处理任务,其在工业界广泛应用与智能客服,闲聊机器人等。现如今主要研究于如何提高对话的质量,多样性。本文则采用先进的技术试图解决这个问题。一、简要信息序号属性值1模型名称DG-AIRL2所属领域自然语言处理3研究内容对话生成4核心内容Dialogue G

2020-08-02 16:09:19

关联规则常用算法

关联规则常用算法  关联规则(Association Rules)是海量数据挖掘(Mining Massive Datasets,MMDs)非常经典的任务,其主要目标是试图从一系列事务集中挖掘出频繁项以及对应的关联规则。关联规则来自于一个家喻户晓的“啤酒与尿布”的故事,本文通过故事来引出关联规则的方法。啤酒与尿布的故事  在一家超市里,有一个有趣的现象:尿布和啤酒赫然摆在一起出售。但是这个奇怪的举措却使尿布和啤酒的销量双双增加了。这不是一个笑话,而是发生在美国沃尔玛连锁店超市的真实案例,并一直为商家

2020-07-03 15:53:41

手写数字识别Mnist的Pytorch实现

手写数字识别Mnist的Pytorch实现注:该内容为校内课程实验,仅供参考,请勿抄袭!源码地址:一、引言(Introduction)  手写数字识别时经典的图像分类任务,也是经典的有监督学习任务,经常被用于测试图像的特征提取效果、分类器性能度量等方面,本文将通过应用机器学习和深度学习算法实现手写数字识别。  图像分类任务是指给定一张图像来对其进行分类,常见的图像分类任务有手写数字识别、猫狗分类、物品识别等,图像分类也是计算机视觉基本的分类任务。而对于手写数字识别任务来说,可以当做图像分类问题,也

2020-07-02 23:20:09

AAAI2020知识图谱论文集

全部列表:https://aaai.org/Conferences/AAAI-20/wp-content/uploads/2020/01/AAAI-20-Technical-Program-Schedule.pdf本文精选了知识图谱有关论文集:知识图谱补全(Graph Completion)1322: Improving Entity Linking by Modeling Latent Entity Type InformationShuang Chen; Jinpeng Wang; Feng .

2020-06-29 16:05:29

论文解读:Improved Neural Relation Detection for Knowledge Base Question Answering

论文解读:Improved Neural Relation Detection for Knowledge Base Question Answering  本文解决KBQA中的子问题——Relation Detection(关系检测)。关系检测目的是给定一个问句,根据知识库来判断该问句目标的关系是什么。例如问句“中国的首都是哪里”,我们会先锁定问句的中心实体(主题词)是“中国”,其次检测这句话目标是问与“中国”这个实体具有“首都”关系的实体,因此类似于知识图谱的补全工作:(中国,首都,?)。因此关系检测

2020-06-19 11:47:54

[PPT]一种在多核环境下用于大规模线性分类的并行对偶坐标下降法

一种在多核环境下用于大规模线性分类的并行对偶坐标下降法  课程需要完成阅读一篇文章,因此挑选本篇论文作为讲解,论文名称为《Parallel Dual Coordinate Descent Method for Large-scale Linear Classification in Multi-core Environments》,下载地址:https://www.csie.ntu.edu.tw/~cjlin/papers/multicore_cddual.pdf在这里插入

2020-06-15 17:56:54

论文解读:Knowledge Base Relation Detection via Multi-View Matching

论文解读:Knowledge Base Relation Detection via Multi-View Matching

2020-06-05 11:02:48

论文解读:Improving Question Answering over Incomplete KBs with Knowledge-Aware Reader

论文解读:Improving Question Answering over Incomplete KBs with Knowledge-Aware Reader  知识库问答(KBQA)是一种领域问答系统(Domain QA),基本原理是给定一个问句和一个知识库,从知识库中找到对应的答案实体。考虑到知识库是不充分的,该工作则结合非结构化文本来解决一些问句无法直接在知识库中寻找答案的问题。一、简要信息序号属性值1模型名称SGR EADER + KAR EADER2所属

2020-06-04 10:57:43

HeapSort堆排序原理与实现

HeapSort堆排序原理与实现  堆排序是比较重要的数据结构,其主要优点是通过排序二叉树的特性能够记录每个数之间的大小关系,以至于不需要重复比较,对于海量数据排序问题可以减少时间复杂度。一、基本概念(1)大根堆(大顶堆):对于一个堆(完全二叉树),根结点的值是比所有结点的值都大,其子树中根结点的值也比子树中其他值都大。大根堆可以获得由小到大的递增序列;其定义为:A[i]≥A[2∗i]A[i]\ge A[2*i] A[i]≥A[2∗i]A[i]≥A[2∗i+1] A[i]\ge A[2*i+1]A

2020-06-03 09:48:45

论文解读:A Hierarchical Framework for Relation Extraction with Reinforcement Learning

论文解读:A Hierarchical Framework for Relation Extraction with Reinforcement Learning  关系抽取是一项比较基础的自然语言处理任务,而联合实体和关系抽取则是一种端到端的方法。传统的方法基本上是先通过实体识别再进行关系抽取,但这容易导致误差传播。为了能够有效提高抽取的效果,本文提出一种基于分层的强化学习框架用于关系抽取。一、简要信息序号属性值1模型名称HRL-RE2所属领域自然语言处理3

2020-05-30 10:45:40

[转载收藏]随机采样方法整理与讲解(MCMC、Gibbs Sampling等)

本文仅为转载收藏,供个人学习。转载地址:https://www.cnblogs.com/xbinworld/p/4266146.html本文是对参考资料中多篇关于sampling的内容进行总结+搬运,方便以后自己翻阅。其实参考资料中的资料写的比我好,大家可以看一下!好东西多分享!PRML的第11章也是sampling,有时间后面写到PRML的笔记中去:)背景随机模拟也可以叫做蒙特卡罗模拟(Monte Carlo Simulation)。这个方法的发展始于20世纪40年代,和原子弹制造的曼哈顿计划密

2020-05-12 20:08:43

强化学习(八):Dyna架构与蒙特卡洛树搜索MCTS

强化学习(八):Dyna架构与蒙特卡洛树搜索MCTS  在基于表格型强化学习方法中,比较常见的方法有动态规划法、蒙特卡洛法,时序差分法,多步引导法等。其中动态规划法是一种基于模型的方法(Model-based),因为它的前提是必须要知道所有状态和动作以及奖励的分布;后面的几种方法则是基于采样的方法,试图让智能体通过与环境交互来获得经验,从经验中推出相关的策略。因此本节对相关内容进行一个简单的总结...

2020-04-19 15:32:50

强化学习(七):n步自举法(多步引导法)

强化学习(七):n步自举法(多步引导法)  在之前,我们知道求解有限马尔可夫决策过程可以通过蒙特卡洛和时序差分来通过与环境多次交互从经验中学习,然而,蒙特卡洛方法在一些不满足分幕式任务或连续型任务上无法获得最终的收益,因此我们引入时序差分方法。时序差分的思想就是将下一时刻的状态价值或下一时刻的状态动作价值作为估计值,用于估计当前状态价值或动作价值。时序差分是一种结合采样和自举的方法,那么一种介于...

2020-04-13 17:21:20

论文解读:Reinforcement Learning for Relation Classification from Noisy Data

论文解读:Reinforcement Learning for Relation Classification from Noisy Data  本文是一篇以强化学习来解决远程监督关系抽取中噪声的问题。强化学习作为一个比较新的机器学习,能够很好的处理一些半监督类问题,强化学习是一种从经验中学习的方法,通过定义策略、状态、动作以及收益来训练智能体与环境的交互,在游戏博弈等场景中很受欢迎。本文则将其...

2020-04-06 16:41:44

强化学习(六):时序差分方法

强化学习(六):时序差分方法  时序差分(TD)方法结合了动态规划与蒙特卡洛的思想,其可以像蒙特卡洛方法一样直接从智能体与环境互动的经验中学习,而不需要知道环境的模型,其又可以像动态规划一样无须等待交互的结果,可以边交互边学习。总的来说,时序差分是基于已得到的其他状态的估计值来更新当前状态的价值函数。如果没有学习动态规划部分,可以浏览博文强化学习(四):基于表格型动态规划算法的强化学习,如果没有...

2020-04-06 10:07:32

强化学习(五):蒙特卡洛采样方法

强化学习(五):蒙特卡洛采样方法  在强化学习(四)中,我们学习了如何使用动态规划法求解强化学习问题,我们还学习了策略评估和策略改进,以及广义策略迭代(GPI),事实上,动态规划能够很好地收敛到最优值,但是否动态规划就是最好的呢?显然不是。回顾一下动态规划的状态价值函数的贝尔曼方程:vk+1(s)=∑aπ(a∣s)∑s′,rp(s′,r∣s,a)[r+γvk(s′)]v_{k+1}(s)=\...

2020-03-31 23:01:54

Pytorch使用LSTM实现Movie Review数据集情感分析

Pytorch使用LSTM实现Movie Review数据集情感分析  入门Pytorch一周时间,周六试着手写情感分类代码。学过Tensorflow的都知道,其需先生成计算图,还得通过placeholder喂入数据,十分的麻烦,也不容易调试,而pytorch真心是简单上手,最开心的就是Tensorflow不能随时打印中间结果,而Pytorch完美实现了~~啰嗦两句,很建议大家先学习tensor...

2020-03-29 01:00:21

论文解读:Denoising Distant Supervision for Relation Extraction via Instance-Level Adversarial Training

论文解读:Denoising Distant Supervision for Relation Extraction via Instance-Level Adversarial Training  本文是一篇以生成对抗网络为出发点的远程监督关系抽取文章,其使用GAN来完成噪声数据的过滤,其相比普通的multi-instance能够更有效的过滤出噪声,避免multi-instance的at-le...

2020-03-26 12:29:02

查看更多

勋章 我的勋章
  • 领英
    领英
    绑定领英第三方账户获取
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 1024勋章
    1024勋章
    #1024程序员节#活动勋章,当日发布原创博客即可获得
  • 勤写标兵Lv2
    勤写标兵Lv2
    授予每个自然周发布4篇到6篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。
  • 学习力
    学习力
    《原力计划【第二季】》第一期主题勋章 ,第一期活动已经结束啦,小伙伴们可以去参加第二期打卡挑战活动获取更多勋章哦。
  • 分享精英
    分享精英
    成功上传11个资源即可获取