自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 1137.第 N 个泰波那契数

T0 = 0, T1 = 1, T2 = 1, 且在 n >= 0 的条件下 Tn+3 = Tn + Tn+1 + Tn+2。,请返回第 n 个泰波那契数 Tn 的值。

2023-11-16 22:19:27 61 1

原创 70.爬楼梯

根据最后一步不同点来划分:按照最后一步是走一阶上来的还是两阶划分。f[i] = f[i - 1] + f[i-1]你有多少种不同的方法可以爬到楼顶呢?f[1] = 1:走一阶只有一种方法,一步走到。f[i]:表示走到第i阶台阶的方案数。只有两种走法,爬 1 或 2 个台阶。1. 1 阶 + 1 阶 + 1 阶。f[2] = 2:1 + 1 或 2。有两种方法可以爬到楼顶。1. 1 阶 + 1 阶。有三种方法可以爬到楼顶。2. 1 阶 + 2 阶。3. 2 阶 + 1 阶。

2023-11-16 22:08:01 66 1

原创 504.七进制数

核心思路就是利用除留余数法对数字进行进制转换,十进制int类型转七进制字符串,使用不断整除的方法加到字符串末尾,最后反转。注意考虑负数和0的情况。

2023-11-06 17:02:30 78

原创 1572.矩阵对角线元素的和

给你一个正方形矩阵mat,请你返回矩阵对角线元素的和。请你返回在矩阵主对角线上的元素和副对角线上且不在主对角线上元素的和。mat = [[,2,],[4,,6],,8,]]25对角线的和为:1 + 5 + 9 + 3 + 7 = 25请注意,元素 mat[1][1] = 5 只会被计算一次。

2023-11-06 15:49:37 86

原创 1486.数组异或操作

异或运算会对操作数的每一位按照如下表格进行运算,对于每一位只有0或1两种情况,所以组合出来总共4种情况。异或运算符是一个二元的位运算符,也就是有两个操作数,表示为x^y。(下标从 0 开始)且。中所有元素按位异或(

2023-11-04 21:59:40 85 1

原创 2427.公因子数目

12 和 6 的公因子是 1、2、3、6。25 和 30 的公因子是 1、5。

2023-11-04 21:40:28 33 1

原创 2413.最小偶倍数

思路:如果能被2整除,则n即为最小公倍数;如果不能被2整除则最小公倍数为2*n;6 和 2 的最小公倍数是 6。注意数字会是它自身的倍数。5 和 2 的最小公倍数是 10。的最小公倍数(正整数)。

2023-11-04 20:59:28 45 1

原创 损失函数、代价(成本)函数、目标函数

一、损失函数,代价函数,目标函数定义首先给出结论:损失函数(LossFunction)是定义在单个样本上的,算的是一个样本的误差。代价函数(CostFunction)是定义在整个训练集上的,是所有样本误差的平均,也就是损失函数的平均。目标函数(ObjectFunction)定义为:最终需要优化的函数。等于经验风险+结构风险(也就是CostFunction+正则化项)。关于目标函数和代价函数的区别还有一种通俗的区别:目标函数是最大化或者最小化,而代价函数是最小化二、为什么需要代...

2021-11-24 10:32:18 1099

原创 对ReLU激活函数神经元死亡现象的理解

Relu激活函数导致 [ 神经元死亡 ] 的原因神经网络接受异于常值范围的输入时,在反向传播过程中会产生大的梯度。这种大的梯度,会因梯度消失而永久关闭诸如 ReLU 的激活函数。relu函数和sigmoid函数相比,虽然能够避免反向传播过程中的梯度消失、屏蔽负值、防止梯度饱和;但是relu也有自身的缺陷,当学习率过大时会出现某些神经元永久死亡的现象,导致网络后期无法正常更新原因分析:ReLU 的全称是 Rectified Linear Unit,其函数图像如下图所示异常输入杀死神

2021-11-24 09:58:33 4722 1

原创 ResNet(残差网络)和梯度消失/爆炸

1、为什么要使用更深层次的网络?从理论上来讲,加深深度学习网络可以提升性能。深度网络以端到端的多层方式集成了低/中/高层特征和分类器,且特征的层次可通过加深网络层次的方式来丰富。举一个例子,当深度学习网络只有一层时,要学习的特征会非常复杂,但如果有多层,就可以分层进行学习。如图1中,网络的第一层学习到了边缘和颜色,第二层学习到了纹理,第三层学习到了局部的形状,而第五层已逐渐学习到全局特征。网络的加深,理论上可以提供更好的表达能力,使每一层学习到更细化的特征。2、梯度消失 or 爆炸但网络加深..

2021-11-23 22:08:51 5401 4

原创 机器学习基础之特征向量维度

1. 对于数组和Series来说对于数组和Series来说,维度就是功能shape返回的结果,shape中返回了几个数字,就是几维。索引以外的数据,不分行列的叫一维(此时shape返回唯一的维度上的数据个数),有行列之分叫二维(shape返回行x列),也称为表。一张表最多二维,复数的表构成了更高的维度。当一个数组中存在2张3行4列的表时,shape返回的是(更高维,行,列)。当数组中存在2组2张3行4列的表时,数据就是4维,shape返回(2,2,3,4)。数组中的每一张表,都可以是一个特.

2021-11-21 11:12:21 6755

原创 梯度下降法(Gradient Descent)

1 原理在机器学习的核心内容就是把数据喂给一个人工设计的模型,然后让模型自动的“学习”,从而优化模型自身的各种参数,最终使得在某一组参数下该模型能够最佳的匹配该学习任务。那么这个“学习”的过程就是机器学习算法的关键。梯度下降法就是实现该“学习”过程的一种最常见的方式,尤其是在深度学习(神经网络)模型中,BP反向传播方法的核心就是对每层的权重参数不断使用梯度下降来进行优化。梯度下降法(gradient descent)是一种常用的一阶(first-order)优化方法,是求解无约束优化问题最简单、最经

2021-11-20 20:18:46 843

原创 机器学习基础之模型篇-----二元分类和多元分类

机器学习是一个比较广阔的知识领域,涉及到很多数学统计和计算机的相关知识。 要想深入了解,需要系统学习和大量的时间。 但是如果我们很清楚地知道机器学习如果用一句话来概括就是:通过大量的训练,使得机器把输入的数据整理出有用的知识输出,这种输出或者是分类或者是回归。分类问题是要预测类别,回归问题是要预测值。如下图,训练数据集输入给训练模型,模型达到一定的准确率后,可以进行测试,把测试数据输入给模型,得到预期要得到的结果。所以,如果我们要了解机器学习,主要就是要了解中间的训练环节,也就是机器...

2021-11-20 17:34:58 5936

原创 java八天总结

A.如何区分各个部分1.包:放最前面         全部小写2.类:首字母大写3.方法:单个单词小写            多个单词从第二个单词开始首字母大写            举例:studentAge,showAllNames()B.Scanner的使用(掌握) (1)Scanner是JDK5以后设计的用来接收键盘录入数据使用的。 (2)目前我们要通过键盘录入int类型数据,必须按照如下...

2018-07-15 01:39:49 127

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除