7 工药叉

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 9w+

linux系统安装gdcm的python库

Digital Imaging and Communications in Medicine (DICOM) 文件是医学上常用的一种数据存储格式,gdcm库可以方便地对数据进行读取。1、Ubuntu系统https://launchpad.net/ubuntu/+source/gdcm可以直接安装sudo apt-get install python-gdcm这种安装方法会直接给系统的p...

2019-09-21 11:16:45

Linux/Ubuntu修改profile之后无法登入系统的问题

开篇先吐槽一句,果然工作时候要头脑清醒啊……前天晚上熬夜,导致昨天一整天迷迷糊糊。结果出了问题也想不到什么办法,只能重装系统。今天重建编译环境的时候遇到了同样的问题,结果想一想就知道是怎么导致的了呀!完全不需要重装系统啊喂!哭了……【症状】 修改profile之后,重启了一次系统。结果可以看到登录界面,但是输入密码后,屏幕闪了闪,又退回来了……访客账户也无法进入。【无效方法】 当然只是...

2018-09-14 16:46:26

关于100M以太网的争用期问题

在学习《计算机网络》(谢希仁)时遇到一个问题: 假定在使用CSMA/CD协议的10Mb/s以太网中某个站在发送数据时检测到碰撞,执行碰撞算法是选择了随机数R=100。试问这个站需要等待多长时间后才能再次发送数据,如果是100Mb/s的以太网呢?第一问比较简单。 再次发送的等待时间 t=Rτt=Rτt=R \tau 其中ττ\tau为争用时间51.2μsμs\mu s,所以...

2018-08-30 13:50:27

数据分析告诉你:房租大涨的锅自如背不背?

今年8月初,房租同比大幅上涨。一些文章直指以自如为首的品牌公寓巨头哄抬房租,通过抢房、囤房等操作,使房租高企。很快,自如CEO熊林发表声明称,品牌公寓市场占比极小,对房租的影响微乎其微。那么,品牌公寓对房租的影响到底如何呢? 我们爬取了自如网、蛋壳网和房天下三个网站近万条数据并进行分析。自如和蛋壳是两家品牌公寓,房天下为个人发布租房信息的平台。首先,我们爬取了回龙观、天通苑、北苑、沙河4个社区集...

2018-08-28 09:19:04

安装 mips linux gnu gcc 提示找不到文件

把 mips-inux-gnu-gcc 所在的bin目录加入到path中运行,提示找不到文件 No such file or directory 此时安装 lsb-core 即可解决 sudo apt-get install lsb-core 出现问题的原因是有些程序编译时候和 lsb-core 的一些库混在一起了,这样在其他地方运行,自然提示找不到文件。...

2018-03-20 16:54:02

【目标跟踪】Long-term Correlation Tracking 阅读笔记

Long-term Correlation Tracking论文地址: https://www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Ma_Long-Term_Correlation_Tracking_2015_CVPR_paper.pdflong_term_tracking tracking 阅读笔记L...

2018-03-07 16:53:21

tensorflow实现基于深度学习的图像补全

原文地址:Image Completion with Deep Learning in TensorFlow by Brandon Amos 原文翻译与校对:@MOLLY && 寒小阳 (hanxiaoyang.ml@gmail.com) 时间:2017年4月。 出处: http://blog.csdn.net/han_xiaoyang/article/details/70214565

2017-05-12 10:20:22

XGBoost参数调优完全指南(附Python代码)

XGBoost参数调优完全指南(附Python代码)原文地址:CompleteGuidetoParameterTuninginXGBoost(withcodesinPython)译注:文内提供的代码和运行结果有一定差异,可以从这里下载完整代码对照参考。另外,我自己跟着教程做的时候,发现我的库无法解析字符串类型的特征,所以只用其中一部分特征做的,具体数值跟文章中不一样

2016-07-19 09:32:05

Django 错误 code 400, message Bad request syntax

跟着Django做网页,搭好一个网页之后使用命令python manage.py runserver来打开服务器。这时使用本机访问 http://127.0.0.1:8000/ 结果是正确的但是开始搭建局域网的服务器时,使用命令python manage.py runserver 0.0.0.0:8000然后在其它电脑上访问报错:[28/Apr/2016 09:55:0

2016-04-28 09:58:51

GraphLab Create API 中文文档 - 数据工程 - graphlab.SGraph

class graphlab.SGraph(vertices=None, edges=None, vid_field='__id', src_field='__src_id', dst_field='__dst_id')一个可拓展的图像数据结构。SGraph数据结构允许在角和边上有任意的词典类参数,以供灵活的边和角查询函数,并可以和SFrame无缝相互转换。

2016-04-12 12:56:16

GraphLab Create API 中文文档 - 数据工程 - graphlab.SFrame

一个列数可变的表格型数据框架对象,可以适应大数据。SFrame中的数据在GraphLabServer 中以列优先的方式存储,并且存储在持久性存储媒介(例如磁盘)中,避免了被内存大小所限制。SFrame中的每一列都是一个大小不可变的SArray,但是SFrame可以通过增加或者减少列来轻松地改变。一个SFrame基本上表现为SArray的一个有序dict。

2016-04-09 16:25:06

GraphLab Create API 中文文档 - 数据工程 - graphlab.SArray

graphlab.SArray class graphlab.SArray(data=list(), dtype=None, ignore_cast_failure=False)一个不可变的,元素同类型的数组对象,支持长期存储。SArray 可以处理远大于机器主内存的数据。它可以完善地支持数据缺失和随机存储。使用SArray格式的数据存储在和GraphLab Server进程同一台机器上。SFrame的每一列都是一个SArray。

2016-04-07 14:20:38

GraphLab Create API 中文文档 - 数据工程

GraphLab Create提供了若干数据结构来进行数据分析。在API文档中,包含了数据结构和方法的简介,以及少量的简单示例。更多的细节和示例,请参考用户手册, API Translator, How-Tos, 和 数据科学Gallery。

2016-04-07 12:34:39

GraphLab Create API 中文文档

GraphLab Create 是一款机器学习的函数库,其中的SFrame也是十分强大的数据管理工具。它允许直接从硬盘中读取数据,免于将数据全部加载到内存中。Graphlab Create 的API官方说明文档是英文的,我查了一下也没有发现中文文档,所以我将它翻译过来,方便英文不是十分流畅的同学们学习。

2016-04-05 22:24:58

初学者教程:第一只爬虫——爬取招聘信息(三)

在前面两篇教程中,我们学习了如何从网上爬取信息。下面我们会迎来最激动人心的时刻:训练一个model,让它自动分类数据。由于是面向初学者的教程,这里暂时不对算法进行更详细的介绍。感兴趣的话可以阅读[逻辑回归]。我们使用的函数库是Dato家的Graphlab Creat(https://dato.com/products/create/),非商业的个人和学生可以申请免费使用。当然,也可以使用其它的库。这样,我们就不关心算法具体的实现,把它当成一个黑盒子,仅仅关心数据的处理。

2016-04-03 18:06:21

初学者教程:第一只爬虫——爬取招聘信息(二)

基础实现。介绍爬虫的代码具体实现,如何将爬到的数据解析、保存下来模型,用于区分某一条新的招聘信息是否适合自己

2016-04-03 16:28:37

初学者教程:第一只爬虫——爬取招聘信息(一)

接触了一段时间的python,但仅仅使用了一些基本的函数。但是,Python在数据挖掘方面功能十分强大。总是用牛刀来杀鸡也不合适,终究是要杀几只牛来练练手的微笑。 于是我做了一个使用爬虫爬取招聘网站上的招聘信息的项目,并把整个过程写成一个教程,也是希望初学python和爬虫的同志们可以通过一个小项目来练手。大部分爬虫的入门教程第一课都是爬取贴吧上面的图片。本教程难度和它的难度差不多,但是会更加有意思。

2016-03-26 13:39:49
勋章 我的勋章
  • GitHub
    GitHub
    绑定GitHub第三方账户获取
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。