自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 问答 (1)
  • 收藏
  • 关注

原创 Docker从入门到-------入门

Dockerdocker 是什么技术开发运维 DevOpsDocker学习东西Docker概述Docker安装Docker命令镜像命令容器命令操作命令Docker镜像!容器数据卷DockerFile 构建镜像Docker网络原理IDEA整合DockerDocker ComposeDocker Swarm 简化版的CI\CD Jenkins 流水线Docker概述Docker为什么出现一款产品:开发——上线, 两套环境, 应用环境部署, 配置开发人员|运

2021-04-29 09:30:07 197

原创 linux Ubuntu 常用指令大全(很详细解释, 超级全)

LinuxLinux 的目录结构采用树状的目录结构,在此结构中最上层的目录是根目录,然后是其他目录下载创建其他的目录在Linux的世界里 一切皆文件,-声卡,-网卡,-硬盘。皆为文件//Linux的目录例如: / dev 管理设备 / media 识别驱动 / opt 安装的软件 / proc 内核东西 / sbin 高权限用户使用的指令 / selinux 如果收到安全威胁,触发 / uer 用户安装的文件/bin [重点] - 是Binary 的缩写,这

2021-04-09 20:44:32 9105 2

原创 opencv画图 一边调色一边画图 两个窗口 进程数据共享问题

多进程数据共享在上一篇博客中写了python 如何实现多进程同步操作, 在我用opencv 画图的时候发现了如果单纯的使用多进程不能实现数据共享, 后来在查阅相关文章后得到了解决, 完整代码在结尾本人思路:在学习过opencv 后我学会了如何使用鼠标作为画笔, 来绘画, 以及如何使用轨迹栏来动态修改数据, 于是我想把两者结合, 由于传统写的python 代码是流水线式的, 画笔的颜色设定之后只能通过修改参数来调整颜色后来才想用多进程来解决这个问题, 在学会了多进程创建之后, 又发现进程之间的数据,

2021-04-08 16:25:35 331 2

原创 python多进程多线程,多个程序同时运行

python 多线程 多进程同时运行多任务要求python 基础语法python 文件目录操作python 模块应用开发工具pycharm实现方法多任务的实现可以用进程和线程来实现进程—> 线程----> 多任务应用多进程操作比如下载多个文件, 利用cpu 资源 提高效率多任务: 同一时间执行多个任务, 比如windows操作系统执行方式有两种( 表现形式 )并发在单核cpu中:在一段时间内交替执行多个任务, 例如单核cpu 处理多任务, 操作系统让各个任务交

2021-04-08 13:49:35 35149 6

原创 训练的时候cost增加准确率降低原因

深度学习首先: 导致这个问题的原因可能是因为学习率α的问题如果要真正理解为什么loss 上升, 并且 准确率降低要从梯度下降算法说起线性回归问题因为我们是线性回归问题, 要使这条直线比较符合上边标记点的走向,因此我们要更新斜率和截距来使其更好的贴合这写标记衡量是否是最佳贴合这些标记的直线的标准就是cost function 损失函数这个损失函数的计算方法在这里就不做过多的解释了但是如果当直线是这样的话 cost function 就会很大 我们的目的是为了使costfunction 损失函数

2021-04-07 11:48:25 1235 1

原创 如何使用matplotlib.pyplot plot画图(超级入门)

matplot.pyplot.plot 画图直线曲线图思路:画图的要素:要搞明白横坐标, 纵坐标分别代表什么例子: 比如要画一个y=x+1 ,那么横坐标就是x, 纵坐标就是yy = x+1 是一条直线 如果要在直线上瞄出x=2 对应的y =3 就的先知道x 是多少, 所以要画图的画就需要知道x 的具体的值代码import matplotlib.pyplot as pltimport numpy as np# 设定随机种子, 保证每次生成的随机数是一样的np.random.seed(1

2021-04-06 12:10:14 956

原创 深度学习Keras Sequential模型训练cifia10预测图片 过程以及遇到的问题

编程软件之前使用pycharm来训练模型发现很难对代码进行实时的修改,在训练完模型之后保存后 需要运行很多余的代码,在这里我觉的notebook 更适合用来进行训练测试代码# 导入需要的包from keras.datasets import cifar10from keras.utils import np_utilsfrom keras.models import Sequentialfrom keras.layers.core import Dense, Dropout, Activati

2021-04-03 10:47:31 1701 6

原创 python 爬虫学习入门 数据分析BeautufulSoup4 简

BeautifulSoup4BeautifulSoup4 和lxml 的提取方法有相似之处, 都是通过标签来对内容进行分析,用beautifulSoup4 对其进行分析的步骤有以下几点:由于BeautifulSoup4 不能处理字符串类型的文本信息,因此需要对字符串类型的html文本进行转化,转换成html 类型的html 文档第一步, 文档类型转换from bs4 import BeautifulSoup# 通过爬虫获取到的html 文档,是字符串类型html = "我是字符串类型的ht

2021-01-28 09:40:38 150

原创 python 爬虫学习入门, 数据分析 正则表达式

数据分析当我们获取到网页的内容之后,我们需要对信息进行进一步的提取,数据提取的话有很多中提取方式,简单的提3个,正则表达式,xpath,和bs4,这几个都可以帮助我们提取到有用的信息,因为目前看到了正则表达式,我就根据正则表达式来大致的写一下提取的过程,以及我提取过程中所遇到的问题正则表达式语句用法...

2021-01-27 08:48:59 177

原创 python 爬虫学习入门6 requests库 添加代理proxies等其他信息

Requests库通过Requests 库 提供的方法我们可以在请求页面的时候同时添加更多的信息,在urllib库中同时添加代理和User-agent 我在网上找了一些办法但是没有理解就不在这里说了,有兴趣的可以自己在网上搜。Request 库中添加代理的方法是传递proxies 参数, 同时可以设置超时等待条件如下:import requestsurl = "http://www.baidu.com"# 添加User-agent 等 头部信息headers = { 'User-

2021-01-26 16:05:43 2382

原创 python 爬虫学习入门5 requests库

Requests库requests库为我们提供了一个封装好的 库函数, 使用更为简便爬虫步骤依然跟以前一样添加爬取网站的url信息,用代码获得网页信息数据分析数据保存# resquests 库的函数就相对简单import requestsurl = requests.get(url)# 调用get 函数即可取代urllib.request.urlopen函数,response = requests.get(url)# 通过content 属性, 获取网站信息, conten

2021-01-25 13:41:28 119

原创 python 爬虫入门学习4 urllib添加cookies验证

添加cookies分为手动添加cookies 和 自动添加cookies在登陆网页之后会在本地存储你的cookie信息,用于身份验证,就像是一把钥匙,我们可以手动添加cookie 和 自动添加cookie 当然自动添加cookie 是建立在手动的基础上,手动添加cookie# 手动添加cookie 比较简单, 因为cookie 是存储在头部信息中的 如果想要添加cookie信息,只需要在header 中增加一条keyheader = { 'User-agent': '321', 'cooki

2021-01-25 13:27:34 1354

原创 python爬虫学习入门3 urllib 添加代理 proxy

进阶操作3 添加Proxy 代理在之前学习了如何添加headers 来伪装浏览器,下面简单讲一下如何通过创建"处理器" 来添加Proxy代理, 回顾之前的第一章,我们用的urlopen()方法来直接请求网页,但是urlopen()这个函数中并没有添加代理的方法,因此需要另辟蹊径。添加handler 的方法添加Proxy爬虫的四个步骤还是那样,第一步 添加要爬取网页的url 地址第二步 发送数据请求第三步 分析数据第四部保存# 还是引用urllib.request 库文件import ur

2021-01-25 09:49:18 2212

原创 python爬虫学习入门2 urllib伪装浏览器

进阶操作2通过添加头部信息User-agent 来模仿浏览器===因为在正常的请求信息过程中,你的浏览器信息会随着请求一起发送到目标url 地址后台因此 如果想要不被那么轻易的发现要先学会伪装自己的请求同样以urllib 库来进行演示# 1. 首先确定要爬取的网址的urlurl = "http://www.baidu.com"# 2. 向服务器发送请求 # 2.1 这里不同的一点是我们需要创建一个请求对象 在上一章中是没有创建请求对象的 这里使用urllib.request.Request

2021-01-22 15:51:12 211

原创 python爬虫学习入门1 urllib 库

python爬虫 学习学习爬虫因为爬取的一般都是网站,在后期可能会出现需要登陆网站等等的信息, 因此在学爬虫前需要大致的了解一下html 网站的架构,以及前端向后端传递参数时候的大致要求.http 的请求方式get 请求post 请求在学习的前两天如果有时间的话大致的去了解一下这两个请求方式, 在传递账号密码参数的时候一般都选择使用post 请求,这样的方式更加安全,爬虫的一般步骤获取你需要爬区网页的url使用python 代码发送网络请求获取你通过python 代码发送的网络请求

2021-01-22 14:09:14 232 4

原创 计算机图形学OpenGL

计算机图形学OpenGL函数调用笔记glFlush与glFinis1. 直线光栅化1.1 背景颜色glClear(GLbitfield mask)glClearColor(GLclampf red, GLclampf green, GLclampf blue, GLclampf alpha);glClear(GLbitfield mask);/*官网解释:clear buffers to preset values,用预制的值来清空缓冲区参数:GL_COLOR_BUFFER_BIT,颜色

2020-12-15 12:18:02 531

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除