3 Ciao112

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 57w+

Jsp页面乱码问题

创建QueryWrapper对象,调用方法实现各种条件查询

2020-10-11 21:01:40

使用清华镜像快速安装pytorch

使用清华镜像快速安装pytorchconda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/conda config --set show_channel_urls yesconda config --add channels

2020-10-03 20:50:19

用python分治法实现归并排序算法

这个是分治代码中的第二步的合并代码def hebin(lista, left, right): mid = int((right - left) / 2 + left) temp = [] i = left j = mid + 1 while i < mid + 1 and j < right + 1: if lista[i] > lista[j]: temp.append(lista[j])

2020-09-29 18:42:40

线性回归梯度下降算法的矢量化

此时的n=2,即样本只有两个特征,X0=1

2020-09-24 20:20:47

吴恩达机器学习之特征缩放,即梯度下降的使用小技巧https://www.coursera.org/learn/machine-learning#syllabus

1.不简化时先假设该模型有两个特征的问题,X1和X2,X1是房屋面积,约为0-2000,X2是卧室的数量,约为1-5当代价函数的等值线又瘦又高时,梯度下降的就越慢并反复来回震荡2.当简化后如图,当两个特征的问题都经过处理后,此时的代价函数的等值线如图,这时候的梯度下降就会很快最好是将特征的取值约束到-1-1之间,只要特征之间的取值不要相差太大即可均值归一化上面的几个公式仍然不是最好的,这里介绍一下均值归一化,如图先减去特征的平均值,再除以特征的取值的最大值afa的取值问题如果学习率afa

2020-09-24 16:54:08

吴恩达机器学习假设函数、梯度下降法总结

吴恩达机器学习视频总结**1. 2020.9.22**当假设函数h(X)中的m个取值的参数,使的值越小,J(x)即是1/2m * 实际值与预测值的平方差的和则说明h(x)中的参数取值的大小越好

2020-09-23 18:07:27

Mybatis-plus分页查询

1. 在配置类中配置分页的插件2.编写分页代码**(1)**直接new page 对象,传入两个参数:当前页和每页显示的记录数**(2)**调用mp的方法实现分页查询

2020-07-29 19:55:35

乐观锁

乐观锁:针对特定的一种问题,提出的解决方案**1. 主要解决:**丢失更新问题:多个人同时去修改同一条记录,最后提交的会把之前提交的数据覆盖2. 解决方案:a:悲观锁,一般很少用。一个一个来,其他人等待b: 乐观锁,*取出记录,获取当前version*更新时,带上这个version*执行更新时,set vertion = newVersion where version = oldVersion*如果version不对,就更新失败也就是说,比较当前的数据版本和数据库版本是否一样,即修改一次

2020-07-29 17:23:08

在写Mybatis-plus项目时的注意事项

2.Mybatispuls实现自动填充第一步 ,在实体类里面进行自动填充属性添加注解创建类,实现接口MyMetaObjectHandler在具体用到这方面时,不需要调用,系统直接回分配该功能

2020-07-29 16:16:01
勋章 我的勋章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv1
    勤写标兵Lv1
    授予每个自然周发布1篇到3篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。