自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(40)
  • 收藏
  • 关注

原创 真 · 推荐系统入门

本人有幸在秋招的节骨眼上,在大厂实习,又恰好需要做推荐这一块。故写下零星,抛砖引玉。简述推荐出现的意义:在日常生活中,很多时候,信息太多,无法自己甄别;这时候又需要了解新姿势,那不如让代码替你实现。这就是推荐,推荐和搜索的最大区别就是是否有明确的目的性。譬如:听歌,看电影,逛淘宝 很多时候都是APP默默为你实现推送了解了推荐的目的,再来看看传统的推荐过程——算法1. 基于邻域的推荐这类...

2019-07-21 17:23:04 286

原创 Boosting方法入门

首先什么是boosting?boosting是一种将弱分类器组合成强分类器的过程构造一个强分类器很难构造弱分类器不难弱分类器的要求:强于随机猜测 (很浅的CART树即可)用数学公式表示即:f(x)=∑m=1MαmΦm(x)f(x)=\sum_{m=1}^{M} {α_m{Φ_m(x)}}f(x)=∑m=1M​αm​Φm​(x)其中:Φm(x){Φ_m(x)}Φm​(x)为每个...

2019-05-29 21:36:06 2618

原创 Linux命令行基本用法总结【自用】

1.awk这条语句只能说非常牛逼,我还在傻傻的写程序处理字符文件时,被awk劝退。深度好文 http://www.zsythink.net/archives/1336主要的用法就是 awk [-F分隔符默认为空格] '[BEGIN{代码}] {代码} [END{代码}]' file [> save_file]用[-F分隔符]对file文件分割.在对file文件运行'{代码}'...

2019-04-15 14:00:47 219

原创 python3字符串编码和解码

虽然这是一个很基础的问题,但是博主一直都是瞎猫碰死耗子的心态去试,因为对于中文就那么几种encode方式 - -!编码解码什么是encode和decode一般来说由一种字符串变成二进制串的过程叫encode;反之称为decode从保存文档开始讲起通常我们写一个文档时,无论是通过word / pycharm / notepad++这些,都会有一个东西叫解码方式,出现在右下角,并且...

2019-03-27 01:03:33 2507

原创 normalization总结和实现

本博文大量引用张俊林老师的专栏:https://zhuanlan.zhihu.com/p/43200897内化于己默认你已经略懂BN,至少读过batch normalization论文!介绍normalization分为针对输入激活函数数据和权重两种方式。1.输入激活函数数据最为广泛使用的就是BatchNormalization(BN),它是一种典形的对输入数据的norm操作,包括它的...

2019-01-08 17:20:19 1214

原创 python魔法方法介绍

魔法方法就是pthon中类里一些__xxx__() 这种形式的函数。功能强大。第一个当然是初始的创建方法1. __init__(self[, ])初始化一个类,意义自明2. __str__(self[, ])和__repr__(self[, ])__str__(a)等价于str(a);__repr__(a)等价于repr(a)两者都是将实例对象转化为字符串的工具,__str__()针对...

2019-01-06 01:29:41 358

原创 Bert论文浅析

本博文默认你对:Word2Vec / ELMo / transformer / OpenAI GPT 有一定了解bert是Google于今年10月提出的模型,该模型打破了多项NLP的记录,甚是牛逼。先导知识介绍part1对图像领域有些了解的同学,肯定经常能看见,这个网络那个网络,动不动拿ImageNet预训练,然后自己特定的任务就在预训练好的模型中进行微调fine-tuning。为什么可以...

2019-01-05 16:33:04 3441

原创 tf的clip_gradient实现

首先,我们平常再实现一次BPtf.train.GradientDescentOptimizer(0.01).minimize(loss)但是查看minimize()的源码grads_and_vars = self.compute_gradients( loss, var_list=var_list, gate_gradients=gate_gradients, ...

2019-01-02 11:34:36 673

原创 git命令记录

安装就不谈了0.全局配置git config --list查看全局所有的配置列表git config --global user.name 'your_name'配置全局用户名git config --global user.email 'your_email'配置全局邮箱这里最好就是用你github的用户名和邮箱1.初始化本地代码仓库git init 直接在本地创建空的git...

2018-12-31 00:43:46 215

原创 (python)threading模块简单讲解

由浅入深1.创建子线程对于threading模块有两种创建子线程的方法1.1继承threading.Thread类,并重写run()继承后重写.start()开始子线程,使之进入run()import threading class MyThread(threading.Thread): def __init__(self, id): threadi...

2018-12-26 21:52:05 401

原创 python中的奇技淫巧

1.zip()和zip(*)a = [[1,2], [3,4], [5,6],[7,8]]b = ["x1", "x2", "x3", "x4"]c = list(zip(a,b))print(c)d = list(zip(*b))print(d)结果:[([1, 2], 'x1'), ([3, 4], 'x2'), ([5, 6], 'x3')

2018-12-25 15:51:00 192

原创 python基础

注:python中和C/C++一样的性质,均被略过本博文将简单解释这部分知识,比较简单,但也相对很基础!将使用idle讲解1.子函数中不能改变全局变量>>> a = 'globals'>>> def foo(): a = 'locals' print(locals())>>> print(globa

2018-12-25 15:03:26 193

原创 tf.summary简单解析

Summary是为了给tensorboard提供数据,而tensorboard在tensorflow是一种非常方便和实用的内置可视化工具,但可视化对程序来说显然不是必须的。其中包含以下几种数据结构:ScalarsImagesAudioGraphDistributionHistogramsEmbeddings对应的都有tf.summary.xxx(xxx为上面提到的数据结构形式...

2018-12-20 13:30:42 1188

原创 tf读取数据的几种方式

1.最简单的方式import tensorflow as tfa = tf.zeros([2,3])b = tf.ones([2,3])c = tf.add(a, b)with tf.Session() as sess: print(sess.run(b))直接读取已经预加载在Graph中的数据,数据量大的时候,要把所有的数据都预加载,非常不合理2.通过feed_di...

2018-12-19 01:11:38 2609

原创 简单LSTM代码讲解

仅供本人参考,错了概不负责part1图源:https://www.zhihu.com/question/41949741/answer/309529532我们在使用tf.nn.rnn_cell.BasicLSTMCell时,有一个要自己设置的参数 num_units,先讲讲这玩意是啥?这四个小黄块,有一定了解的同学都知道[ht-1, Xt]输入后,经过四个黄块和St-1,又得到了ht和S...

2018-12-16 17:24:32 12047

原创 tf.Variable和tf.get_variable()异同

相同点:都是创建Variable对象创建后的variable如果collection参数是默认,都保存[tf.GraphKeys.GLOBAL_VARIABLES]这个tf内部维护的collection中当参数trainable为True时,同时也保存在[GraphKeys.TRAINABLE_VARIABLES]中get_variable的 initializer+sh...

2018-12-16 16:31:51 423

原创 TF训练相关函数

1.指数衰减学习率目的:一开始较快速度收敛之后快收敛时,更加稳定得收敛至最优解def exponential_decay(learning_rate, global_step, decay_steps, decay_rate, ...

2018-12-14 20:42:46 398

原创 tf.assgin函数想到的tf计算图的流动机制

还挺有意思的,大家都知道tf.assign_add(ref, value)系列的tf.assign/tf.assign_add等等函数在运行后,会更新ref为新值:ref+value,同时返回值也是ref+value但是当代码是a = tf.Variable(1.0)tf.assign_add(a, 2.0)with tf.Session() as sess: sess.r...

2018-12-14 14:43:37 234

原创 FastText概要

两个用途构建字符级别N-gram的词向量 实现快速文本分类1.实现快速文本分类结构类似Word2Vec的CBOW模型两者不同点:word2vec:输入为每个单词的one-hot,并通过1~t-1,t+1~N的单词预测t个单词,预测的W(t)通过one-hot表示;得到的是前面的权重W。FastText:输入为每个单词的embedding,当引入序列信息的时候,还...

2018-12-12 16:16:41 294

原创 Word Embedding概要

仅供本人参考,错了概不负责一、Word2Vec思路:one-hot的word represents信息太离散,不符合客观现实。考虑如何把信息整合,使之不那么sparse?两种方式1. Skip-Gram2. CBOW下图为window size = 2,中间次和周围词的对应关系Skip-Gram做的事情是 中心预测window size的单词,而CBOW是 wi...

2018-11-05 22:07:07 288

原创 np.lib.pad

用处,对于不同pad操作的实现原型def pad(array, pad_width, mode, **kwargs):array是要pad的matrix,pad_width时pad规则,mode时pad方式其参数参看源码易学习到主要讲解pad_width参数Number of values padded to the edges of each axis.((befo...

2018-10-07 20:30:19 1964

原创 tensorflow中一些常用函数记录

简单函数不给用例tf.nn.moments函数原型def moments( x, axes, shift=None, # pylint: disable=unused-argument name=None, keep_dims=False):例子img = tf.Variable(tf.random_normal([2,3,4])...

2018-10-07 11:35:05 277

原创 C++学习笔记进阶:cin>> cin.getline() string库中的getline()

本文引用他人博客链接po出来:https://blog.csdn.net/a1015553840/article/details/50579396https://www.cnblogs.com/hchacha/p/6517564.html 1.cin函数cin>>a;结束条件:[enter],[space],[tab]    处理方法:cin遇到缓冲区中的[...

2018-09-11 00:20:23 867

原创 C++学习笔记:指针相关

1.引用和指针实际是一个变量的别名,类型 &来声明与指针的不同:1、并且不能为NULL,且一定要初始化,不能改变;指针可以为NULL,且可以指向不同的对象2、不能有多级引用;指针可以有多级3、++ 和 -- 操作,指针是对地址,引用是对引用的变量操作;引用访问时直接访问,而指针访问时间接访问code:#include<iostream>using...

2018-09-02 16:58:57 243

原创 C++练习场

1.实现方阵的转置因为还未复习到数组作为参数传递,所以这里代码较为繁琐。#include <iostream>#include <iomanip>using namespace std;void swap(int &a, int &b){ int temp = a; a = b; b =temp;}int ma...

2018-09-02 15:27:46 282

原创 C++学习笔记:类中的一些特性

1.常成员函数在函数声明后加关键字const,常函数重载。#include<iostream>using namespace std;class Point{public: Point(int xx=0, int yy=0); Point(const Point &p); ~Point(){} void showPoint(){...

2018-08-31 11:29:13 136

原创 C++学习笔记:类之间的关系

1.组合一个类的成员变量,包含另一个类的对象。例子:Line类中有Point类对象#include<iostream>using namespace std;class Point{public: Point(int xx=0, int yy=0); Point(const Point &p); ~Point(){ c...

2018-08-30 15:11:03 319 2

原创 C++学习笔记:构造函数详解

1.面向对象的C++1. '::'的使用作用:指示作用域; 用作区分不同地方的相同变量名,用于实现类中的未实现方法。code:#include<iostream>using namespace std;int a;void test(){ cout<<"test"<<endl;};class Clock{public: ...

2018-08-21 01:00:44 206

原创 C++学习笔记:一些经典的递归实现的算法

上一节写了一些简单的递归函数,这里想用递归解决一些比较经典的问题。1.组合问题组合公式(考虑某一个是否选入可以理解这个公式的来源):code:#include<iostream>using namespace std;int comb(int n, int k){ if(n<k){ cout<<"n and k sh...

2018-08-18 00:16:37 387

原创 naive bayes注意的一个点

bayes公式如上bayes分类器的本质实际是对不好直接计算,转化为与的逆向条件概率,其中有一个重要的假设B中每个元素条件独立,这样,就可以讲的联合分布变成一个个单独的条件分布。对于给定的traindata,所有的,都是可以统计出来的,P(B)则是一个常量,不起作用。当traindata训练好之后,有一个问题。就是先验概率是否满足客观规律呢???traindata中的是不是和实际生活中...

2018-07-31 15:25:12 318

原创 精确率和召回率

 图中意义自明。准确率:acc = (TP+TN) / (TP+FN+FP+TN)  即所有被分的例子中正确的比例召回率:recall = TP / (TP+FN)  表示所有正例中,被正确划分的比例(有正例被错误预测为负)精确率:precision = TP / (TP + FP)  表示正确预测为正占所有预测为正的比例(其中有负例被错误预测为正) 关系:也不算正相关或负...

2018-07-30 12:51:42 461

原创 python中的*和**

*args表示把传入的参数当成tuple处理并附给args**kwargs表示把传入的参数当成dict处理并赋给kwargsdef foo(*args): print(args) return argsfoo('apple','banana','cabbage')foo(['apple','banana','cabbage'])foo(*['apple','banana',...

2018-07-12 14:03:18 167

原创 np.mgrid函数

代码:z = np.mgrid[1:5, 1:3]x, y = z[0], z[1]print(x)print(y)结果:[[1 1] [2 2] [3 3] [4 4]][[1 2] [1 2] [1 2] [1 2]]首先np.mgrid输出至少是一个三维的向量。其中的元素,z[0],z[1]都是二维矩阵。z[0]列数由np.mgrid第一个参数决定,上例为1:5,且为1 2 3 4,列...

2018-07-08 20:57:42 9987 2

原创 np.c_和np.r_

代码:import numpy as npx = np.array([1,2,3])y = np.array([4,5,6])temp1 = np.c_[x, y]temp2 = np.r_[x, y]print(temp1)print(temp2)结果:[[1 4] [2 5] [3 6]][1 2 3 4 5 6]np.c_实现的是对所给向量或者多维矩阵的最后一维,分别进行合并操...

2018-07-08 20:43:04 509

原创 深坑待填

一1.important sampling & reject sampling2.MCMC二1.HMM2.EM3.变分推断4.LDA

2018-07-01 20:49:16 219

原创 SSD论文浅析

Single Shot MultiBox Detectordeepsystems背景        因为YOLO V1带来的快速的检测速度,而准确率却远不如faster-rcnn,而且前面博文所说,YOLO V1只在一个grid cell中预测一种class,并且只在最后一层的feature map进行box的预测,使得在大小尺寸上难以兼顾到。        本文中提出的SSD,很重要的一点就是将...

2018-06-27 15:16:02 1329

原创 谈谈膨胀卷积

膨胀卷积(空洞卷积、Dilation Convolution/Atrous Convolution)的本质是为了1.避免下采样而减少feature map的信息2.感受野又不变如图,(c)为膨胀卷积,考虑亮黄色的神经元,视野为1-5,在(b)的情况中,需要再加一层,才有一个神经元的视野有1-5的情况,但这样参数就变成了好几倍了。caffe中的膨胀系数dilation可以理解为对    原始卷积尺寸...

2018-06-26 20:19:32 9070

原创 YOLO V1的过程解读

you only look once!!!一、所需基本姿势1、YOLO将图片分成S*S的grid cell,每个grid cell对应B个bounding box,论文S=7,B=2,故有98个bbox。2、YOLO中每一个Object只对应一个中心点,该中心点只唯一出现在一个grid cell中3、Object中心点落在的那个grid cell负责把该Object回归出,彻底不是...

2018-06-24 21:08:13 1209 3

原创 从RCNN到faster-RCNN的理解

RCNN1. 非极大抑制 :为了使得分最大的选框更加凸显,需要把它附近的(因为很可能框起来的是一个东西),但分数没它高的框去掉!对于那些分数没有达到要求得分的选框去除。2.正负样本的选择和作用:选择是根据iou指标,如大于0.5则视为正样本,反正负样本作用呢,是为了增加被打上label(背景,车子,草地什么的)的选框,而不仅仅是人工标准选框,又因为CNN相比SVM需要大量数据集去学习参数,所以相比...

2018-06-16 17:24:53 152

原创 tf.shape(a)和a.get_shape()

import tensorflow as tfa = tf.constant([[1,2,3],[4,5,6]])print(type(a.get_shape()))print(type(a.shape))print(type(tf.shape(a)))得到:<class 'tensorflow.python.framework.tensor_shape.Tensor...

2017-10-16 20:15:47 566

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除