自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(159)
  • 资源 (3)
  • 收藏
  • 关注

原创 .Net6使用SignalR实现前后端实时通信

.net使用SignalR实现前后端双向通信

2024-01-12 16:56:17 1055

原创 C#语言练手小功能

【代码】C#语言练手小功能。

2024-01-10 17:35:20 538

原创 oracle 子查询和窗口函数

描述:给定一张学生学科成绩表base_student_grade,字段id表示学生学号,name为姓名,subject表示学科,grade为某学科成绩。使用窗口函数查询每个学生成绩最高的学科和分数。2. partition by:将数据按照id,name进行分区,即将具有相同id,name的行分为同一个分区。1. row_number() :窗口函数。为结果集中的每一行生成一个唯一的行号。3. order by grade desc:每个分区按照grade降序排列。4. rn=1:选取每个分区内的第一行。

2024-01-03 14:48:13 552

原创 Oracle递归查询

描述:现有两个数据表base_menu1和base_menu2,存储菜单,其中id字段表示菜单的唯一id,parent_id存储该菜单父级菜单的id,用递归查询的方式将菜单按照层级关系查询出来,并且要展示菜单的层级关系。(如区分菜单是几级菜单)start with指定递归的起始节点,connect by prior指定父子关系。3. case when根据菜单的层级关系(level)向菜单添加level字段,使用该字段区分菜单的层级。1. union all:表示两个表的查询结果合并。

2024-01-03 14:18:32 512

原创 .Net6使用WebSocket与前端进行通信

2. 在program.cs中进行绑定。

2023-11-22 22:16:09 1571

原创 C#通过请求url调用接口返回数据

url请求参数:searchDate(当前请求的年月:2023-7),需进行url编码。方法描述:通过请求url,调用对方系统的接口,拿到数据并返回;方法参数:访问系统的url地址。

2023-07-27 16:57:57 1152

原创 AES与RSA联合使用进行加解密(C#)

AES与RSA联合使用进行加解密(C#)

2023-07-05 11:17:50 1025

原创 C#将GridView中的数据导出为excel文件

C#,GridView内容导出为Excel

2022-10-25 16:59:04 546 1

原创 C#与数据库的增删改查以及登录功能实现

C#与sql server数据库基本操作

2022-10-25 16:55:26 1417 1

原创 动态规划例题汇总

动态规划=分治递归+记忆存储(避免子问题的重复计算)1. 斐波那契数列牛客网NC65:class Solution: def Fibonacci(self , n: int) -> int: # write code here alist=[0,1,1] if n<=2: return alist[n] for i in range(3,n+1): alist.app

2022-03-28 16:43:13 760

原创 递归;动态规划(最长公共子序列)

啥是动态规划?(递推) 例如:斐波那契序列的非递归法def fib(n): if n==1 or n==2: return 1 alist=[0,1,1] for i in range(3,n+1): alist.append(alist[i-1]+alist[i-2]) return alist[-1]动态规划有啥好处? 递归执行效率低:子问题的重复计算(斐波那契额递归比非递归慢)# fib(1)=1 , fib(..

2021-11-14 22:12:54 549

原创 二叉搜索树(展平、插入、查找、删除)

删除:1. 删除的节点为叶子节点:直接删除2. 删除的节点只有左子树或只有右子树:将其子树的根节点替换此节点3. 删除的节点既有左子树又有右子树:用其右子树的最小节点代替,然后将代替的节点删除(这个代替的节点分为其为叶子节点和只有右子树两种情况)# 节点的定义class BiTreeNode: def __init__(self,data): self.data=data self.lchild=None self.rchild=N

2021-11-05 21:57:19 195

原创 二叉树的前、中、后序遍历,层次遍历,二叉树的深度

1. 前序遍历(根、左、右)def pre_order(root): if root: print(root.data) pre_order(root.lchild) pre_order(root.rchild)2.中序遍历(左、根、右)def in_order(root): if root: in_order(root.lchild) print(root.data) in_or

2021-11-05 20:23:15 140

原创 堆排序(O(n*logn))及python中堆排序的内置函数

1. 内置函数实现堆排序'''python内置模块:heapq常用函数:heapify(x)heappush(heap,item) 加元素heappop(heap)'''import heapqimport randomalist=list(range(15))random.shuffle(alist)heapq.heapify(alist) # 建堆(小根堆)new=[]for i in range(15): new.append(heapq.heappop(a.

2021-11-03 17:38:40 278

原创 排序(冒泡、选择、插入、希尔、归并、快排、计数)

1. 快速排序def QuickSort(alist,start,end): if start>=end: return i=start j=end pivot=alist[start] # 基准值 while i<j: if i<j and alist[j]>=pivot: # 比它小的值放在左边 j-=1 alist[i]=alist[j] ..

2021-10-19 19:43:49 653 2

原创 二分查找法

1. 二分查找(时间复杂度O(log n))class Solution(object): def search(self, nums, target): low=0 high=len(nums)-1 while(low<=high): mid=(low+high)//2 if nums[mid]==target: return mid

2021-10-13 21:58:39 141

原创 链表操作基础(python)

链表创建、合并、节点删除、翻转、奇偶位置重排

2021-09-23 21:10:08 5652

转载 NMS各种变体

目标检测之非极大值抑制(NMS)各种变体

2020-11-30 09:54:25 337

原创 运行.sh文件报错-bash: ./download_weights.sh: Permission denied

运行.sh文件:./download_weights.sh命令运行报错:-bash: ./download_weights.sh: Permission denied,此时这个文件是不可执行的,用‘ll’命令查看文件的访问权限:-rw-r--r-- 1 G19940018 users 144 Nov 7 2019 download_weights.sh此时文件是可读的,但是不可执行,输入命令,变为可执行: chmod u+x download_weights.sh再次.

2020-10-17 16:46:51 2408

原创 github不能显示图片的问题

打开 C:\Windows\System32\drivers\etc\hosts 文件,以记事本或vs及其他工具打开均可。在文件的最后添加一下信息即可:# GitHub Start 192.30.253.112 github.com 192.30.253.119 gist.github.com151.101.184.133 assets-cdn.github.com151.101.184.133 raw.githubusercontent.com15.

2020-09-24 15:09:56 116

原创 RNN,Seq2Seq, Attention,LSTM

参考:1.完全解析RNN,Seq2Seq,Attention注意力机制2.Understanding LSTM Networks

2020-07-15 14:56:33 223

原创 ResNet模型代码整理

1. ResNet模型2. 左图为18层,34层模型的一个残差块,右图为50层,101层,152层的残差块3. 18层,34层的残差块(虚线部分表示输入要进行一次下采样操作)4. 50,101,152层的残差块5. 34层的模型结构图:...

2020-07-05 21:42:57 3517

原创 VGG模型代码整理

1. VGG模型2. 用2次3*3卷积代替5*5卷积,3次3*3卷积代替7*7卷积。(1)卷积结果对应原图的感受野计算: (F(i)表示第i层的感受野,如果是最上层的就是1,如果多次卷积就多次迭代计算。) 例如:三次3*3卷积代替7*7卷积 F=1, F3=(1-1)*1+3=3, F2=(3-1)*1+3=5, F1=(5-1)*1+3=7(2) 参数量对比 ① 7*7: 7*7*channels*channels=49...

2020-07-05 20:54:33 2610 1

原创 AlexNet模型代码整理

1. 网络模型(论文是用两块gpu并行训练的,所以图中的模型是上下两部分的,第一层卷积核的个数是48+48=96)2. 模型参数3. 模型代码import torch.nn as nnimport torchclass AlexNet(nn.Module): def __init__(self, num_classes=1000, init_weights=False): super(AlexNet, self).__init__() .

2020-07-05 20:28:32 1118

原创 pytorch笔记13--过拟合&dropout

导致过拟合的原因:训练网络的数据量太少;网络神经元太多;解决过拟合:增加训练时的数据量;正规化;dropout(每次随机丢弃一定数量的neuron,防止对神经元的过分依赖)1. 训练过程用两个不同的网络测试,动图如下:(自己截动图很麻烦,所以从网上拿来的)2. 自己运行的结果图如下:可以看到没加dropout的网络几乎照顾到了每一个训练数据(过拟合),但是对测试数据来说效果就很差...

2020-04-02 21:44:47 419

原创 pytorch笔记12--无监督的AutoEncoder(自编码)

1. AutoEncoder: 给特征属性降维2. Data---->压缩(提取Data的关键信息,减小网络的运算压力)---->data(具有代表性的特征)---->解压(还原数据信息)---->Pred_Data3. 使用Mnist数据集训练,将数据先压缩再解压,并用训练集的前5张图片可视化训练的过程,过程图和结果图如下:可视化训练集前200张图片的预测...

2020-03-31 20:50:05 1980 2

原创 pytorch笔记11_RNN回归

用sin曲线你个cos上的数据:# 用sin曲线拟合cos曲线上的数据import torchimport torch.nn as nnimport numpy as npimport matplotlib.pyplot as plttorch.manual_seed(1)# Hyper parametersTIME_STEP=10INPUT_SIZE=1 ...

2020-03-31 14:58:29 612

原创 pytorch笔记10--RNN 图片分类

图片如下:# RNN循环神经网络 分类 (时间顺序,图片从上往下读取)import torchimport torch.nn as nnimport torchvision.datasetsimport torchvision.transforms as transformsimport matplotlib.pyplot as pltimport torch.utils....

2020-03-27 21:48:33 1974

原创 pytorch笔记9--CNN & GPU加速

数字识别#数字识别import torchimport torch.nn as nnimport torch.utils.data as Dataimport torchvisionimport matplotlib.pyplot as plttorch.manual_seed(1)# Hyper ParametersEPOCH = 1BATCH_SIZE = 50...

2020-03-26 18:39:31 906 2

原创 pytorch笔记8--optimizer

对比各种优化器的效果数据分布如下图:import torchimport torch.utils.data as Dataimport torch.nn.functional as Funcfrom matplotlib import pyplot as plttorch.manual_seed(1)#hyper parametersLR=0.01BATCH_SIZ...

2020-03-24 23:36:07 150

原创 torch.squeeze()和unsqueeze()

注:torch.squeeze()和torch.unsqueeze()的用法torch.squeeze(x,dim,out):对数据的维度进行压缩,去掉维数为1的维度,默认将a中所有为1的维度删掉,也可以通过dim指定位置,删掉指定位置的维数为1的维度。import torchdata=torch.ones(3,1,4,1,5)print('原数据: ',...

2020-03-24 22:45:26 351

原创 pytorch笔记7--批训练

import torchimport torch.utils.data as Data #用于小批训练torch.manual_seed(1) #为cpu设置随机种子,使多次运行结果一致# torch.cuda.manual_seed(seed) #为当前GPU设置随机种子#torch.cuda.manual_seed_all(seed) #为所有GPU设置随机种子Ba...

2020-02-06 12:31:48 160

原创 深度学习笔记--Kaggle比赛之房价预测

#获取和读取数据import torchimport torch.nn as nnimport pandas as pd #处理数据import All_function as func #自定义包torch.set_default_tensor_type(torch.FloatTensor)train_data=pd.read_csv('Kaggle_...

2019-11-26 15:34:50 783 1

原创 深度学习笔记--Fashion_mnist+softmax的简单实现

1. 主文件import torchimport All_function as funcimport torch.nn as nn#获取数据batch_size=256train_iter,test_iter=func.load_data_fashion_minist(256)#定义和初始化模型class LinearNet(nn.Module): def __i...

2019-11-13 11:59:35 455

原创 关于深度可分离卷积可以减少计算量的问题

一、什么是深度可分离卷积?深度可分离卷积的操作流程?二、为什么深度可分离卷积的计算量比普通卷积的计算量要小?例如:12*12*3的原始图像用256个5*5*3的卷积核卷出8*8*256的结果(stride=1)1. 使用原始的卷积方法的计算量:256*(5*5*3)*(8*8)=1228800注:单通道5*5卷积核的计算量为5*5,所以3通道的为5*5*3;卷积核要在原始图像上...

2019-09-29 23:14:06 5284

原创 可分离卷积:空间可分离卷积和深度可分离卷积

空间可分离卷积:将一个卷积核分为两部分(降低计算复杂度,但并非所有的卷积核都可以分) 深度可分离卷积的过程:先深度卷积,再点态卷积 (对卷积中的通道数不了解的请参考:关于卷积中的通道数问题)1. 深度卷积过程:对于一个12*12*3的像素图用一个3通道的5*5*1的卷积核进行卷积。(而不是用一个5*5*3的卷积核进行卷积)注意:每个5*5*...

2019-09-29 23:09:31 5819

原创 卷积过程中关于通道数的问题

以RGB图像为例。一个12*12的像素图,对其进行5*5的卷积,最后得到一个8*8的像素图。RGB图像有3个通道(12*12*3),所以卷积核也要有3个通道(5*5*3),对像素图进行卷积后得到的结果是8*8*1而不是8*8*3的图像。最后像素图的深度(输出图像的信道数)取决于卷积核的个数。如果要得到8*8*256的结果,应该这样做:用256个5*5*3的卷积核来卷12*12*3的...

2019-09-29 23:04:46 13966 21

原创 语义分割论文V3+总结

论文:《Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation》 论文主要的进展和贡献 1. DeepLabv3+ = DeepLabv3 + decoder model:空间金字塔池化模块可以通过卷积和池化操作对多尺度的上下文信息进行编码,Encoder-Decoder结构能...

2019-09-29 22:57:54 327

原创 梯度下降:BGD、SGD、MBGD的区别

梯度下降法分为三种形式:批量梯度下降(Batch Gradient Descent)、随机梯度下降(Stochastic Gradient Descent)和小批量梯度下降(Mini-Batch Gradient Descent) 批量梯度下降(BGD) 每次迭代时使用所有的样本来更新参数(速度慢,但迭代次数少;可以将所有的样本放在一个矩阵中,实现并行计算)伪代码如下:  ...

2019-09-29 17:32:12 1317

原创 pytorch笔记6--网络的保存和提取

一、步骤1.创建数据import torchimport torch.nnimport matplotlib.pyplot as pltfrom torch.autograd import Variablex=torch.unsqueeze(torch.linspace(-1,1,100),dim=1)y=x**2+0.2*torch.rand(x.size())x=Vari...

2019-08-20 16:13:39 531

.net6使用SignalR实现实时通信

代码包含服务代码和前端代码,后端用.net6实现,前端代码从网上找的,用来模拟客户端测试前后端实时通信的功能

2024-01-12

ResNet模型实验

本实验使用了ResNet模型,实验中包含了模型结构、网络训练和测试,以及预测部分。文件太大,没有上传数据集。请自行下载

2020-07-05

VGG_code_pytorch.rar

本实验使用了VGG模型,为了简化实验,加速训练过程,可能会修改模型中的一些参数。看了VGG模型之后仿写的

2020-07-05

AlexNet_code_pytorch.rar

本实验使用了Alex模型,为了简化实验,加速训练过程,修改可模型中的一些参数。看了Alex模型之后仿写的

2020-07-05

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除