2 fffffffff_jj

尚未进行身份认证

我要认证

我是

等级
TA的排名 2w+

[leetcode-1] Two Sum

哈希表法:【C++实现】class Solution {public: vector<int> twoSum(vector<int>& nums, int target) { unordered_map<int, int> has; for(int i = 0; i < nums.size(); ++i){ if(has.find(target - nums[i]) != has.en.

2020-09-22 08:55:17

Matplotlib库学习

Matplotlib数据可视化绘制折线图 pyplotimport matplotlib as mplimport matplotlib.pyplot as pltimport numpy as npx = np.linspace(0, 10, 100)siny = np.sin(x)cosy = np.cos(x)#---绘图---plt.plot(x, siny, label="sin x")plt.plot(x, cosy, color="red", linestyle="--"

2020-06-26 15:52:42

numpy库学习

numpy 数据基础array构造方法:可以用list创建常见属性:.dtype 查看元素类型其他创建array的方法:零:全0np.zeros(n)np.zeros(shape=n, dtype=int)np.zeros((x,y))一:全1np.ones(n)填充:np.full(shape, fill_value)arange创建array序列:np.arange(start, end, step=1)【注】step可以传入浮点数lin

2020-06-26 15:46:30

Jupyter Notebook使用方法

Jupyter优点:前面cell中的变量都可在后面使用方便数据加载restart and run all: 防止提前调用后面初始化的变量Jupyter Notebook 高级用法魔法命令%run执行并将脚本加载进来:格式:%run 脚本相对地址(相对于ipynb)%run myscript/hello.pyhello("FFF")【注】加载进来以后,后面直接可以使用已加载的脚本中的方法将模块加载进来:直接调用:mymodule.first_ml.predict(1)

2020-06-26 14:21:24

机器学习第一课

机器学习基础数据集(data set ):比如,鸢尾花数据: 特征 - 种类 (全部数字化)样本(Sample):每一行数据除种类外,每一列表达样本的一个特征(feature):用矩阵 X描述第i个样本行写作 X(i)X^{(i)}X(i)( 也叫:特征向量) 第i个样本的第j个特征值 Xj(i)X^{(i)}_jXj(i)​标记(label): 最后一列(种类),也是机器学习的目的(分类),用向量y表示【注】约定用大写字母表示矩阵,小写字母表示向量第i个样本的标记写作 y(i)y^{

2020-06-26 12:46:32

python基础语法

字符串格式化{}占位符:1. 顺序"{}, {}".format(s1, s2)2. 索引"{2}, {1}".format(s1, s2)3. key"{p1}, {p2}".format(p1=s1, p2=s2)str = format(num, '格式')case:format(123.45, '0.2f')format(123456.78, ',') #千分位分隔符format(123456.78, "0,.2f") #千分位分隔符{:格式}"{}, {

2020-06-20 10:44:10

对称矩阵和矩阵的SVD分解

完美的对称矩阵A=ATA = A^TA=AT⋆\star⋆ 对称矩阵特征值一定是实数⋆\star⋆ 对称矩阵的多重特征值,对应的特征空间的维度一定等于重数 ⇔\Leftrightarrow⇔ 几何重数 == 代数重数 ⇔\Leftrightarrow⇔ 一定有n个线性无关的特征向量 ⇔\Leftrightarrow⇔ 一定可相似对角化正交对角化对称矩阵可以被正交对角化(P可以是一个标准正交系)⋆\star⋆ 向量点乘(内积)与矩阵乘法之间的关系:v⃗1⋅v⃗2=(v1)Tv2\vec{v}_1·

2020-06-18 11:30:57

特征值(特征向量)与相似对角化

什么是特征值/特征向量?方阵的一个属性,描述方阵的“特征”Au⃗=λu⃗A\vec{u} = \lambda\vec{u}Au=λu不改变方向,只伸缩λ\lambdaλ 称为矩阵A的特征值(eigenvalue)u⃗\vec{u}u称为A对应于λ\lambdaλ的特征向量(eigenvector)求解:特征方程特征向量不考虑零向量(平凡解)→u⃗≠0\rightarrow \vec{u} \ne 0→u​=0(A−λI)u⃗=0(A - \lambda I)\vec{u} =

2020-06-18 10:36:33

行列式

6.8 行列式 (determinant)行列式是方阵的一个属性行列式描述的是:n个向量围成的“有向面积”,来刻画这组向量(基)(将A映射到一个纯量)det ():按行排列(a,b),(c,d)det⁡(abcd)\det{\left( \begin{matrix} a & b \\ c & d \end{matrix}\right)}det(ac​bd​)行列式求法:面积 --> 割补法行列式的四大基本性质一、det⁡I=1\det{ I} = 1detI=1二、交

2020-06-18 09:49:57

坐标转换和线性变换

一个空间的不同基的转换空间的基 和 坐标系一一对应坐标(用基线性表示的系数):(c1,c2...cn)T记为:[x⃗]ε(c_1, c_2 ... c_n)^T 记为: [\vec{x}]_\varepsilon(c1​,c2​...cn​)T记为:[x]ε​标准基(Standard Basis):ε={e⃗1,e⃗2,...e⃗n}\varepsilon = \{\vec{e}_1, \vec{e}_2, ... \vec{e}_n\}ε={e1​,e2​,...en​}标准正交基(Or.

2020-06-18 09:34:34

正交性

空间空间是一个集合欧几里得空间:有序实数元组的集合(x, y …)二维:R2 (R:实数集,2:每个元组包含两个元素)(点集、起点为原点的向量集合)-> 向量空间:空间中的元素都是向量理论:对于向量:必须定义两种运算 (加法 、 数量乘法)这两种运算必须满足十条性质:封闭性: u + v, k · u (加法和乘法) 都封闭(closure)加法:交换律,结合律零律:存在零元O属于向量空间,使得: u + O = u对每个u存在-u使得u + (-u) =

2020-06-18 00:42:25

线性相关/无关

线性组合只用两个基本运算 “向量加法,变量乘法(数乘)” 得到的向量矩阵空间下的坐标(任一向量):基向量的线性组合A * (x, y) T线性相关/无关线性相关:存在一组不全为0的k使:k1α1+k2α2+...+knαn=0k_1 \alpha_1 + k_2 \alpha_2 + ... + k_n \alpha_n = 0k1​α1​+k2​α2​+...+kn​αn​=0⇔\Leftrightarrow⇔ 存在一个向量可以写成其他向量的线性组合线性无关:只有k全为0才能使: (反证法

2020-06-14 13:34:23

矩阵的分解

数的分解:66 = 2 * 3 * 11(质因数分解)矩阵的分解:将一个矩阵分解成为几个矩阵的乘积矩阵的LU分解将一个矩阵分解成为几个矩阵的乘积LU分解目的:提高计算效率将A分解为: A = L · UL:Lower Triangle MatrixU: Upper Triangle Matrix【注】通常:单位下三角矩阵(主对角线为1),上三角矩阵不保证单位LU分解方法:高斯消元 --> 将矩阵A变成上三角矩阵UEp...E3⋅E2⋅E1⋅A=UE_p ... E_3 · E_

2020-06-14 13:31:26

矩阵的逆

求矩阵的逆待定系数 AX = I=> (A | I) --> ( I | A-1)【注】(A|E) 因为左边是E不可能化简出全0行,不可能有无数解何时无解?系数矩阵化为行最简时有0行Q: 只右乘,得到右逆A: 定理:如果一个方阵A有右逆B,则B也是A的左逆,即B是A的逆我的实现 def inv(self): """返回矩阵的逆""" self._forward() self._backward()

2020-06-14 13:16:24

线性系统

5.31 线性系统高斯消元法主元:pivot 归一化,不断向下消除主元为0时,与当前列最大值的行交换(避免误差)缺点:化成阶梯矩阵后还需要回代求解(繁琐)高斯-约旦消元法(Gauss-Jordan Elimination)没b用,就是再反向进行一遍高斯消元法,化成行最简矩阵实现G-J我的实现: def gauss_jordan_elimination(self): """返回Gauss-Jordan elimination的结果""" T = self

2020-06-14 11:02:07

矩阵

图像变换变换矩阵缩放T=(a00b)T = \left( \begin{matrix} a& 0 \\ 0&b \end{matrix} \right)T=(a0​0b​)翻转:关于x轴:Tx=(100−1)T_x = \left( \begin{matrix} 1&0\\0&-1\end{matrix} \right)Tx​=(10​0−1​)关于y轴:Ty=(−1001)T_y = \left( \begin{matrix} -1 &am

2020-06-14 10:50:38

线性代数:学习路线图

矩阵

2020-06-14 09:59:25

极大似然估计

6.1 极大似然估计参数估计方法:模型一定,参数未知,通过样本反推最有可能使样本出现的参数连续性随机变量的极大似然估计联合概率密度函数一次采样n个样本可近似看成是n个独立同分布的随机变量n个样本数据代入联合概率密度函数应取最大值样本数据当作常数,参数当作自变量,求取似然函数取最大值的参数一般步骤:写似然函数对似然函数取对数求偏导数(导数),解方程组(方程)一致性:满足一致性,样本越多估计越准确不足之处:依赖于概率分布类型的假设,真正的独立同分布不容易满足,样本不应过少

2020-06-13 10:26:22

线性回归

5.31 线性回归最小二乘法找到合适的参数,使残差平方和最小(残差:拟合结果和实际值的差)平方和二元函数最小化:必要条件:偏导数=0(不能保证处于最小值,且只有一个极值点)解线性方程组,求得待定系数用线性代数实现最小二乘法解线性方程组m = y -Xa<=>求mmT最小值->求自变量为向量的函数的最小值如何使回归方程更准确回归方程的形式应准确:线性回归必须要求是线性关系全部影响因素都应考虑到不相干的因素不应被纳入模型采集的样本数据应当准确一致性:样本越

2020-06-13 10:25:41

傅里叶变换

6.2 傅里叶变换常数项级数函数项级数:函数列收敛点,发散点收敛域,发散域一致收敛性傅里叶级数时域 -》 幅度-频率 -》 初始相位-频率正弦函数的叠加所有周期函数都可以由三角函数叠加而得三角函数系的正交性1, sin x, cos x, sin(2 x), cos(2 x), … sin(n x), cos(n x)任意两个乘积在[-pi, pi]上的定积分为0傅里叶级数收敛性迪利克雷充分条件:周期延拓傅里叶变换推广:对于定义域是无穷,且非周期函数,无法使用傅里叶级数

2020-06-13 10:24:26

查看更多

勋章 我的勋章
  • GitHub
    GitHub
    绑定GitHub第三方账户获取
  • 签到新秀
    签到新秀
    累计签到获取,不积跬步,无以至千里,继续坚持!
  • 阅读者勋章Lv2
    阅读者勋章Lv2
    授予在CSDN APP累计阅读博文达到7天的你,是你的坚持与努力,使你超越了昨天的自己。
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv4
    勤写标兵Lv4
    授予每个自然周发布9篇以上(包括9篇)原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。