自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(31)
  • 收藏
  • 关注

原创 C2-2.1 Mini-batch 梯度下降

​,比如这里有5000万个训练样本,由于一次性对这些训练样本进行训练拟合模型,会发生训练速度过慢的情况 / 完全训练不了因为数据量太大了,对内存 GPU都是一个考验。。​。提高运算速度。内存不足的情况。​和之间找到平衡,使得处理大型数据集成为可能,同时也利用了现代计算硬件的并行处理能力。

2024-04-10 15:41:13 648

原创 C2-1.4(L1,L2)正则化

如λ取1000时,损失函数的值受正则化影响,为了减小J(w,b)最终的值,就尽量减少 w值,如λ取0时,损失函数的值就导致了不受正则化的影响,就变成了以前那样的函数。外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传。首先来复习一下**“正则化”公式:**最终 f(x) ≈ b。为了防止过拟合,线性回归的。

2024-02-22 17:15:31 522

原创 C2-1.6 Dropout正则化——提高泛化能力

以图一为例:假设在训练图一所示的神经网络,它存在(模型过于复杂情况),dropout(每一层设置的阈值不同),并。假设每个节点得以保留和消除的概率都是0.5。设置完节点概率会消除一些节点,然后删除掉从该节点进出的连线,目的:随机消除一些神经元,让网络规模更小,模型变得相对简单一些。

2024-02-22 17:13:19 1121

原创 C1-3.4 多个样本的向量化

输入X,x的个数为m,就是m列的向量。1、把多组输入变量X拼接在一起2、通过计算得出多样本向量化Z。

2024-01-13 10:08:31 428

原创 C1-3.2 关于‘神经网络’

【注释】彩色图像(RGB)由三原色构成,二维图像在任意一个点像素为立体三层结构,分别是红色、绿色、蓝色值,该值的范围在0∽255之间。

2024-01-13 10:04:00 955

原创 C3-1.3.1 无监督学习——异常检测

这里只拿出来两个特征值(X1 , X2)来举例,为了可视化让我们了解的更加方便,实际应用中 特征的数量可能达到上百 / 上千:说明的大概率的,是正常的:是小概率发生的事件,要进行进一步的检查**P(X):**这里通过训练集建立完成 模型 P(X)后,用训练集数据 X-test 来判断结果 P(X-test):是否是状态异常的发动机**ε的值:**即最外圈蓝色框的概率的值。

2024-01-10 09:52:25 703

原创 C2-3.3.4 One-hot编码

前面提到的决策树——判断是否是 “猫”,利用的是原理——即:只有两个判断结果 “是否软耳”、“是否有胡子”…

2024-01-09 11:02:34 352

原创 C2-4.3.1 多个决策树——随机森林

决策树中的每一个节点是特征的一个随机子集,用于计算输出。当我们执行分类任务时,新的输入样本进入,对森林中的每一棵决策树分别进行判断和分类。每棵决策树都会得到自己的分类结果,而决策树哪个分类结果最多,那么随机森林就会用这个结果作为最终结果。所以就变成了右侧的决策树,使得左右两侧变成了完全不同的决策树。,往往一棵树的结果不是那么理想—— 通过多个决策树的组合,让它对数据变化没那么敏感,得到更加准确的结果。,将选取的N个样本作为决策树根节点的样本来训练一棵决策树。如下:是有放回的随机抽样的结果。

2024-01-09 10:57:56 1019

原创 C2-4.2.2 决策树-纯度+信息熵+信息增益

【※※※总结】:信息熵是用来衡量 给出的数据集中 数据的纯度的信息熵越小,数据就越纯。通常用在机器学习分类的情况下3.2 信息熵公式。

2024-01-09 10:38:07 1743

原创 C2-3.3.3 迁移学习

【※注释】:必须是同一个输入类型。

2024-01-08 21:28:06 470

原创 1.4.1机器学习——梯度下降+α学习率大小判定

我们开始的时候w和b可以设置为任意值。(这里我们设置 w=0 , b = 0)通过迭代不断的调整 w和b 的值,去尽量的降低损失函数J(w,b)直到我们的损失函数J(w,b) 达到/接近 “谷底”/最小值【※注意】 :损失函数可能不仅仅是一个如右图的抛物线,也可能是“高尔夫球场图”,这样的话minimum最小值的个数就不仅仅是一个了“高尔夫球场图”图中XYZ轴分别代表:W,b , 损失函数 J(w,b)的值。

2024-01-08 10:05:01 1073

原创 2.2.3机器学习—— 判定梯度下降是否收敛 + α学习率的选择

*第一步:**首先选择从 0.0001 0.01 0.1 1 10 依次去尝试,当发现学习率α的值过大时(J(W,b)损失函数发生上弹)。第二步:再进行从最后一次正常的α值(出现损失函数J(w,b)上弹之前的值),依次迭代乘3去尝试。最后收敛后,选择最合适的α值。

2024-01-08 10:04:09 686 1

原创 C2-3.4.1 精准率 和 召回率——解决样本不平衡的情况下 准确率的问题

总结一句话:精准率 和 召回率——解决**样本不平衡**的情况下 **准确率**的问题

2024-01-05 20:08:20 953 1

原创 C2-3.3.2 机器学习/深度学习——数据增强

# 1、为什么要使用数据增强?- ※总结最经典的一句话:**希望模型学习的更稳健**

2024-01-05 15:39:48 1024 1

原创 C2-3.2.1 诊断Bias(偏差) and variance(方差)——误差的两大来源+解决方案

总结:理解一:方差度量了同等大小的的变动导致学习性能的变化,。当模型越复杂时, 拟合的程度就越高, 模型的训练偏差就越小。但此时如果换一组数据可能模型的变化就会很大, 即模型的方差很大。所以模型过于复杂的时候会导致过拟合。:是指:对于一组给定范围的数据,我们预测的很好。。但是换了一组数据后我们预测的结果没有那么理想。。。——这也是方差的定义:说一个小孩学习成绩方差大,该不该派他去参加比赛,泛化能力差,因此在训练集上变现的很好,但是在测试集上变现的不好。导致的是 过拟合。

2024-01-04 09:57:34 861 1

原创 3.4.1-欠拟合 与 过拟合(Bias and variance) + 相关解决方案

欠拟合 与 过拟合(Bias and variance) + 相关解决方案

2024-01-04 09:55:27 960 1

原创 GitHub项目上传报错:Failed to connect to github.com port 443 after 21098 ms: Couldn‘t connect to server

windows 2008操作系统教程:https://www.gworg.com/problems/1074.html。本教程已经windows操作系统2012版本举列,当然其它的操作系统系统版本操作类似。六、TCP——特定本地端口:80,443(如果之前有80了,填写443就可以)方法二:快捷键操作方式:win+R,输入:control,回车。一、进入服务器远程桌面——开始菜单——控制面板。九、名称可自定义——描述不填写——完成。四、入站规则——新建规则。七、允许连接——下一步。八、全部勾选——下一步。

2023-09-26 16:07:13 609 1

转载 GitHub项目创建并上传

Public 是公开,可以在 GitHub 搜到,Private 是私密项目,只有自己和项目成员能看到。本文将要记录的是,创建第一个 GitHub 项目,并将自己的本地项目上传到 GitHub。新手创建第一个GitHub项目,一步一步将本地项目提交到GitHub 经验总结 第1张。新手创建第一个GitHub项目,一步一步将本地项目提交到GitHub 经验总结 第2张。执行完以上命令再刷新一下 GitHub 的项目,可以看到,本地的代码已经被传上去了。(创建项目),之后会看到如下界面。

2023-09-26 16:02:12 123 1

原创 Python基础之NumPy教程——全网最全面最详细!!!

NumPy(Numerical Python的简称)是Python数值计算最重要 的基础包。⼤多数提供科学计算的包都是⽤NumPy的数组作为 构建基础。多维数组对象,是同构数据多维容器,也就是说,他的内容类型是相同的。基于NumPy的算法要⽐纯Python快10到100倍(甚⾄更快),并 且使⽤的内存更少.专门为大数据计算所诞生的【注释:参考《书》P114】

2023-09-13 19:29:12 187 1

原创 pandas中使用 drop() 和 del()删除列数据的区别

【代码】pandas中使用 drop() 和 del()删除列数据的区别。

2023-09-13 11:49:09 291 1

原创 !!!已解决ahocorasick包安装出现的 ERROR: No matching distribution found for pyahocorasick

pip install ahocorasick安装出错,怎么办?

2023-08-28 12:03:31 536 3

原创 langchain+ChatGLM 部署

链接:https://pan.baidu.com/s/14Dx9djCxpLJb2MgpoOkG1A?pwd=ABCD提取码:ABCD。

2023-08-25 20:06:03 297 1

原创 !!!亲测成功:langchain+ChatGLM 大模型部署

部署langchain+ChatGLM

2023-08-25 15:42:59 2308 3

原创 前向传播之——得分函数

理解参数W和b:下面咱们再通过这张图来形象的理解下参数W和b,在真实的情况下对于每一个类别的参数W是一个3072维的,但是咱们为了形象化理解把它画在了2维的空间中,我们可以从图中看到三种颜色的线代表了三个线性分类器,参数W的每一个小权重的改变(共有3072个小权重)意味着这条线在改变的小参数的那个维度发生了偏转,我们可以想象2维空间中对于W的改变意味着什么然后再去想象这个3072维的空间。可能有些同学对于一个输入的图片如何计算出它的得分还有点困惑,这里我简单的来说一下从输入到输出的一个矩阵计算过程。

2023-07-12 15:49:58 186 2

原创 什么是卷积神经网络——CNN

如果用全连接神经网络处理大尺寸图像具有三个明显的缺点(1)首先将图像展开为向量会丢失空间信息;(2)其次参数过多效率低下,训练困难;(3)同时大量的参数也很快会导致网络过拟合。而使用卷积神经网络可以很好地解决上面的三个问题。​ 与常规神经网络不同,卷积神经网络的各层中的神经元是3维排列的宽度、高度和深度。其中的宽度和高度是很好理解的,因为本身卷积就是一个二维模板。深度:比如 32x32x3(宽度,高度和深度)中 *3 就是(RGB)图片形式 分为三层(代表了红、绿、蓝3种颜色通道)三层颜色拼在一起。

2023-07-12 15:47:05 93 1

原创 !!!已解决: Linux操作系统登录,输入正确账号密码显示却显示:Sorry, that didn‘t work. Please try again.

已解决!!!Linux 输入正确账号密码显示 Sorry,that did not work的问题

2023-07-03 21:37:41 2111

原创 小程序反编译

微信小程序反编译

2023-06-30 10:19:17 185

转载 C#,ASP.NET 数据的持久化存储-xml文件

视频链接:https://www.bilibili.com/video/BV1ML411Q7oz/?【第三步】:调用:(我这里把这个类写成了 静态类,里面的方法写成了静态方法,直接通过:类名.方法(参数)就可以实现了)【第二步】:XMLHelper类的创建。【第一步】:XML问价的创建和内容。

2023-06-26 14:50:41 196

转载 C#,ASP.NET数据持久化存储——APP.config

视频链接:https://www.bilibili.com/video/BV1ML411Q7oz/?适用场景:我在一个下拉框中选择B,那么我下次再进入这个界面,我想让他默认还选择B,怎么办?那就用到了我们的持久化存储。【2.】在APP.config配置文件中的app.settings插入想要存储的东西(也可以在代码中调用自动插入)【1.】创建一个ConfigHelper类。

2023-06-26 14:49:08 209

原创 C#,ASP.NET委托的使用

有两个窗体,FORM1(含一个label控件,一个名为显示form2的button控件)和FORM2(含一个button控件)。解决:用事件回调 一、在Form2。三、启动f2,在f2中执行这个委托实例,就是SetMainFormTopMost(true)这样写 (参数要和委托的那个声明一 致)(这里是Form2调用Form1的函数)访问链接:C#跨窗体调用控件(委托回调函数使用例子)1.【声明委托】:想调用哪里的委托就在哪里声明(第一步)2.【委托的调用】在哪里使用,就在哪里定义委托(第三步)

2023-06-26 14:42:47 747

原创 小程序报错 H.createEvent is not a function !已解决

在电脑上没有错,后来进行真机调试就会出现报错报错信息;后来找到原因:我请求的URL接口地址是本机localhost 地址后来把 这个localhost 地址经过内网穿透测试了一下 变成了如下图片,再进行真机调试后就没有报错了!!!!附加:内网穿透 Ngrok免费版 视频链接: link.https://www.bilibili.com/video/BV17K4y187A2...

2021-07-20 22:24:37 8459 7

黑马day-02自己跟写笔记

黑马程序员3天快速入门python机器学习

2023-06-30

黑马day-02自己跟写笔记

黑马程序员3天快速入门python机器学习

2023-06-30

黑马day-01自己跟写笔记

黑马day_01自己跟写笔记

2023-06-30

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除