2 lijfrank

尚未进行身份认证

我要认证

Life is too short, recording the fragments of studying.

等级
TA的排名 2w+

python私有、公有、专有

私有方法某些对象(属性、方法、函数、类等)只能够在某个范围内访问,出了这个范围就不能访问了,这是“公”、“私”之分。此外,还会专门为某些特殊的东西指定一些特殊表示,比如类的名字用 class,方法用 def,这就是保留字。除了保留字,Python 中还为类的名字做了某些特殊准备,就是“专有”的范畴。以“__”双划线开头的,将这类命名的函数/方法称之为“私有函数”。所谓“私有”,即:私有函数不可以从它们的模块外面被调用私有类方法不能够从它们的类外面被调用私有属性不能够从它们的类外面被访问跟私有

2020-07-03 17:27:36

Side Information-KGAT: Knowledge Graph Attention Network for Recommendation阅读笔记

Xiang Wang, Xiangnan He, Yixin Cao, Meng Liu and Tat-Seng Chua (2019). KGAT: Knowledge Graph Attention Network for Recommendation. Paper in ACM DL or Paper in arXiv. In KDD’19, Anchorage, Alaska, USA, August 4-8, 2019.@inproceedings{KGAT19,author =.

2020-06-28 13:05:50

Side Information-Knowledge Graph Convolutional Networks for Recommender Systems阅读笔记

Knowledge Graph Convolutional Networks for Recommender Systems基本信息作者Hongwei Wang∗, Miao Zhao, Xing Xie, Wenjie Li, Minyi Guo†[重要作者提示]†Dr. Minyi Guo (过敏意), Zhiyuan Chair Professor, IEEE Fellow, ACM Distinguished Member标签Recommender systems; Knowledge

2020-06-27 16:33:49

RGCN-Modeling Relational Data with Graph Convolutional Networks阅读笔记

作者:来自于 University of Amsterdam 的 Michael Schlichtkrull, Thomas N. Kipf(GCN的作者), Peter Bloem(VU Amsterdam), Rianne van den Berg, Ivan Titov, Max WellingAbstractKnowledge graphs enable a wide variety of applications, including question answering and inform

2020-06-26 22:20:46

GraphSage-Inductive Representation Learning on Large Graphs阅读笔记

William L. Hamilton∗,Rex Ying∗,Jure LeskovecNIPS 2017AbstractLow-dimensional embeddings of nodes in large graphs have proved extremely useful in a variety of prediction tasks, from content recommendation to identifying protein functions. However, most e

2020-06-24 22:42:38

使用深度学习做推荐系统-Neural Collaborative Filtering

He X, Liao L, Zhang H, et al. Neural Collaborative Filtering[C]// International Conference on World Wide Web. International World Wide Web Conferences Steering Committee, 2017:173-182.Abstract近年来,深度神经网络在语音识别,计算机视觉和自然语言处理方面取得了巨大的成功。但是,在推荐系统上对深层神经网络的探索研究相对

2020-06-20 01:05:56

推荐系统矩阵分解-基于SVD协同过滤的推荐

奇异值分解(Singular value decomposition)是一种矩阵分解技术,也是一种提取信息的方法。将一个比较复杂的矩阵用更小更简单的3个子矩阵的相乘来表示,这3个小矩阵描述了大矩阵重要的特性,可以起到降维简化数据,去除数据噪声的作用。...

2020-06-19 19:22:51

A Guide to Singular Value Decomposition for Collaborative Filtering阅读笔记

本文的方法来自:A Guide to Singular Value Decomposition for Collaborative FilteringChih-Chao MaDepartment of Computer Science, National Taiwan University, Taipei, TaiwanAbstractAs the market of electronic commerce grows explosively, it is important to provide

2020-06-18 11:10:19

奇异值分解SVD

奇异值是矩阵里的概念,一般通过奇异值分解定理求得。奇异值分解是一个有着很明显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。就像是描述一个人一样,给别人描述说这个人长得浓眉大眼,方脸,络腮胡,而且带个黑框的眼镜,这样寥寥的几个特征,就让别人脑海里面就有一个较为清楚的认识,实际上,人脸上的特征是有着无数种的,之所以能这么描述,是因为人天生就有着非常好的抽取重要特征的能力,让机器学会抽取重要的特征,SVD是也一个重要的方法。在机器学习领

2020-06-17 20:16:09

Memory-based的CF推荐--Item-based的方法:Item-Based Collaborative Filtering Recommendation Algorithms

Badrul Sarwar, George Karypis, Joseph Konstan, and John Riedl摘要推荐系统将知识发现技术应用于在生活中针对信息、产品或服务提出个性化建议的问题。这些系统,尤其是基于k近邻协同过滤的系统,正在网络上获得广泛的成功。可用信息的巨大增长,以及最近访问Web站点的访客的数量,对推荐系统提出了一些挑战。它们是:产生高质量的推荐,每秒为数百万个用户和项目提供高质量推荐,并在数据稀疏的情况下实现更高的质量。在传统的协作过滤系统中,工作量随着系统中参与人数的增

2020-06-17 16:28:24

推荐系统概述、分类

一、推荐系统的基本思想知你所想,精准推送利用用户和物品的特征信息,给用户推荐那些具有用户喜欢的特征的物品。物以类聚利用用户喜欢过的物品,给用户推荐与他喜欢过的物品相似的物品。人以群分利用和用户相似的其他用户,给用户推荐那些和他们兴趣爱好相似的其他用户喜欢的物品。二、推荐系统的数据分析1、用户个人信息(注册信息)喜好标签(勾选)上下文信息(浏览过什么,浏览记录,用户的行为习惯)2、物品内容信息(基本信息)分类标签(类别)关键词假如物品的特征和用户相匹配,即可。3

2020-06-17 00:01:59

机器学习(深度学习)中的metrics

本文以二分类问题作讨论,多分类可以类推。混淆矩阵

2020-06-16 16:30:59

BERT直观理解

BERT架构图 简单解释一下BERT的架构图。位置向量解决了时序问题(RNN不能并行的执行,只能一个一个的来,但是不一个一个的来,时序即word的先后顺序,怎么处理呢,位置向量就解决了);Self-Attention解决RNN不能并行的问题,multi-head可以提取到多种语义的层次表达,这一部分是核心;接着将向量层的数据(向量表示)和Mutil-Head-Attention的数据进行合并,这个操作叫残差连接,为了使下一层不比上一层差,其中归一化(标准化)的操作是为了更好的求导,防止梯度消失,还能

2020-06-05 23:14:28

BERT简单理解-入门

简介BERT模型来自谷歌团队的paper——BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding,它在11个NLP任务中刷新了成绩,效果非常好,非常惊人。但是,这项工作不是很好复现,如果没有足够的资源就不要想了 。之前,利用预训练的语言表征来完成下游NLP任务的研究,可以概括为两类:feature-based和fine-tuning。feature-based类别比如ELMo,fine-tuning

2020-05-31 23:36:06

Attention机制

想要看懂时下流行的Bert,必须要先弄懂Transformer,弄懂Transformer还得搞清楚什么是Attention。概述Attention机制之所以能够迅速发展,主要是它解决了很多难题,它的总体思路为从关注全部到关注重点。主要有以下特点:效率高Attention 通过选择性聚焦,一定程度上解决了 RNN 不能并行计算的问题。Attention机制每一步计算不依赖于上一步的计算结果,因此可以和CNN一样并行处理。效果好在MT、QA、情感分析、POS、parsing和对话等任务中使用at

2020-05-30 00:50:15

深度学习-批标准化(批归一化,Batch Normalization)

Google在ICML文中描述得非常清晰,即在每次SGD时,通过mini-batch来对相应的activation做标准化操作,使得结果(输出信号各个维度)的均值为0,方差为1。而最后的“scale and shift”操作则是为了让因训练所需而“刻意”加入的BN能够有可能还原最初的输入,从而保证整个network的capacity(非线性、表达能力)。为什么深度神经网络随着网络深度加深,训练起来越困难,收敛越来越慢?这是个在DL领域很接近本质的好问题。很多论文都是解决这个问题的,比如ReLU激活函数,再

2020-05-24 13:01:38

深度学习-激活函数

激活函数是用来加入非线性因素的,因为线性模型的表达能力不够。引入非线性激活函数,可使深层神经网络的表达能力更加强大。优秀的激活函数应满足:非线性: 激活函数非线性时,多层神经网络可逼近所有函数可微性: 优化器大多用梯度下降更新参数单调性: 当激活函数是单调的,能保证单层网络的损失函数是凸函数近似恒等性:f(x)≈xf(x) \approx xf(x)≈x . 当参数初始化为随机小值时,神经网络更稳定激活函数输出值的范围:激活函数输出为有限值时,基于梯度的优化方法更稳定激活函数输出为无

2020-05-23 14:59:59

指数衰减-学习率

在神经网络的参数更新过程中,学习率不能太大也不能太小,太大可能会导致参数在最优值两侧来回移动,太小会大大降低优化速度,为了解决学习率的问题,TensorFlow 提供了一种灵活的学习率设置方法,即指数衰减法。TensorFlow API: tf.keras.optimizers.schedules.ExponentialDecay每迭代一轮,新的学习率都会根据以上参数更新一次,式子如下:decayed_learning_rate = learning_rate * decay_rate ^ (g

2020-05-23 10:22:24

with在python中的用法和含义

With语句的基本语法格式:"""格式with expression [as target]: with_body"""参数说明:expression:是一个需要执行的表达式;target:是一个变量或者元组,存储的是expression表达式执行返回的结果,可选参数。with open('1.txt') as f: print(f.read()) print(f.closed)在with语句块中就可以使用这个变量操作文件,执行with这个结构之后,f会自动关闭,相

2020-05-22 16:11:59

Python创建二维数组的一个坑

m = n = 3test = [[0] * m] * nprint("test =", test)test = [[0, 0, 0], [0, 0, 0], [0, 0, 0]]是不是看起来没有一点问题?其实不然,往下看:m = n = 3test = [[0] * m] * nprint("test =", test)test[0][0] = 22print("test =", test)test = [[22, 0, 0], [22, 0, 0], [22, 0, 0]

2020-05-21 20:04:13

查看更多

勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv4
    勤写标兵Lv4
    授予每个自然周发布9篇以上(包括9篇)原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。