2 流量分类

尚未进行身份认证

我要认证

暂无相关简介

等级
TA的排名 15w+

在请求分页存储管理方案中,若某用户空间为16个页面,页长1KB,现有页表如下,则逻辑地址0A1F(H)所对应的物理地址为( )。

在请求分页存储管理方案中,若某用户空间为16个页面,页长1KB,现有页表如下,则逻辑地址0A1F(H)所对应的物理地址为( )。两种方式:逻辑地址 % 1024 (即1k的页面大小) = 地址偏移量逻辑地址 / 1024 (即1k的页面大小) = 页号根据页号,查页表,可以得到块号物理地址 = 块号 X 页大小 + 地址偏移量页长1KB 2^10=1k 页面长度为10位,故 逻辑地址0A1F(H)转化为二进制位 0000 1010 0001 1111(划线为页面)

2020-06-30 10:11:54

现有一循环队列,其队头指针为front,队尾指针为rear;循环队列长度为N。其队内有效长度为?

现有一循环队列,其队头指针为front,队尾指针为rear;循环队列长度为N。其队内有效长度为?(假设队头不存放数据)对于循环队列 空间长度为N 是固定的举个简单例子 空间 位置为 1,2,3,4,5,6, 空间长度为6本体中 front 不存数据如果front <= rear 则(rear-front)> 0 实际空间长度就是 (rear-front)举例 front = 1 ,rear = 4如果front > rear 则(rear-front)< 0 实际长

2020-06-27 21:22:53

pytorch实现模型蒸馏

#首先导入模块、准备数据import torchfrom torch.utils.data import DataLoaderimport torch.utils.data as Dataimport torchvision.transforms as transformsimport numpy as npimport osfrom torch.autograd import Variableimport torch.nn as nnimport torch.nn.functional

2020-05-27 16:16:52

为什么模型loss为负

一般loss为负是在loss采用交叉熵的情况下:可以将softmax 改为 log_softmax

2020-05-27 15:33:14

pytorch 打印参数的总规模

#model 为你要打印的参数模型print("Total number of paramerters in networks is {} ".format(sum(x.numel() for x in model.parameters())))

2020-05-27 15:29:55

list、vector、deque、set、map等各容器的底层

STL里常用的几种容器及特点:list:底层是双向链表,在当前结点前后插入新元素的效率为O(1),当然如果需要有序插入的话,还是会退化为O(n),因为需要遍历比较元素值vector:底层是动态数组,把数组的常用操作封装起来,方便使用,插入性能为O(n),尾插为O(1);deque:主要是和 vector 相比较,从头部插入的性能优于 vector;set:底层是红黑树,直接存储用户的数据,要求存储的数据是可以比较的,插入性能是log(n),树的平衡调整规则会有一定的开销;map:底层是红黑树,存储

2020-05-25 09:26:26

整数240有几个因数

整数240有几个因数:先将240因式分解,得到240=(24)*(31)(5^1),在选择因子的时候可采用x=2^ m3 ^ n5^k;而m,n,k各有5(m+1),2(n+1),2(k+1)种选法,且相互独立,故一共有52*2=20个因子。...

2020-05-25 09:08:48

Python树的广度优先遍历、层次遍历

层次遍历;class TreeNode(): def __init__(self,x): self.val = x self.left = None self.right = Noneclass Solution(object):  def graorder(self, root): if not root: return '' queue = [root] res = [] while queue: x = queue.pop(0) re

2020-05-24 21:39:24

Python树的深度优先遍历、前序、中序、后序

树深度优先遍历分为三种:前序、中序以及后序。1.前序优先遍历:class TreeNode(): def __init__(self,x): self.val = x self.left = None self.right = Noneclass Solution(object): def preorder(self, root): if root is None: return '' print(root.val)

2020-05-24 21:27:10

pytorch 模型保存、加载

保存模型加载分为两种:1.只保存加载模型参数torch.save(model.state_dict(), '\modelname.pkl')# 加载到模型中,首先新建模型,然后加载参数newmodel= NewModel(...)newmodel.load_state_dict(torch.load('\modelname.pkl'))2.保存完整模型#保存模型torch.save(model, '\modelname.pkl')# 加载模型model = torch.load('\m

2020-05-24 10:24:13

pytorch加载预训练模型、微调、以及现有模型中加入自己的层、为不同层设置不同的参数更新

**加载预训练:**分为两种1.加载自己之前训练的模型。pretrained_params = torch.load('Pretrained_Model')model = New_Model(xxx)model.load_state_dict(pretrained_params.state_dict(),strict=False)2.加载pytorch中模型以残差网络18为例import torchvision.models as modelsresnet18 = models.resne

2020-05-23 20:40:31

一个n阶对称矩阵,矩阵元为Aij将其下三角部分以行序为主序存放在一维数组M[0,n(n+1)/2-1]中,设矩阵最左上角矩阵元为A00,则矩阵元A64对应的位置为M[25]

步骤分析:(1)存储定义一个一维数组_a,开辟N*(N+1)/2个空间,遍历矩阵,若i>=j,说明元素在矩阵的下三角位置,按顺序存入_a; 若i<j,则不存储,继续遍历矩阵的下一个元素。(2)访问矩阵元素要访问压缩存储的矩阵元素,我们可以根据对称矩阵和压缩存储的对应关系: Matrix[i][j] == Array[i*(i+1)/2+j]来存储矩阵元素。...

2020-05-22 08:44:09

循环队列进队出队、静态链表

循环队列进队:队尾指针(rear+1)%m出队:对头指针(front+1)%mm为数组容量**静态链表:**是用数组存储节点数据,模拟链表的实现,但是没有用到指针。每个数组节点包括两部分:data域和cursor(游标)域。data存储数据,cursor指明下个元素在数组中的下标。 (1)存取第i个元素时,需要从头遍历到i-1和元素,由第i-1个节点的cursor,才能知道第i个元素存储的位置,因此和i是相关的。 (2)使用数组对元素进行存储,在定义时大小已经确定。 (3)插入和删除操作无需移动元素

2020-05-19 09:24:13

Jupyter notebook中.ipynb文件转换为.py、并打包成dll

解决方法在写好的.ipynb文件的最后新建一个cell,写入代码如下:try: !jupyter nbconvert --to python file_name.ipynb # python即转化为.py,script即转化为.html # file_name.ipynb即当前module的文件名except: pass给python编译成dll文件import clr clr.CompileModules("d:\psaa\pdd.dll", "C:\pd

2020-05-18 15:07:37

一个机器人玩抛硬币的游戏,一直不停的抛一枚不均匀的硬币,硬币有A,B两面,A面的概率为3/4,B面的概率为1/4。问第一次出现连续的两个A年的时候,机器人抛硬币的次数的期望是多少?

一个机器人玩抛硬币的游戏,一直不停的抛一枚不均匀的硬币,硬币有A,B两面,A面的概率为3/4,B面的概率为1/4。问第一次出现连续的两个A年的时候,机器人抛硬币的次数的期望是多少?假设T为扔的次数(期望)。 那么如果扔到B,则重新开始扔,即再扔T次。第一次扔到B,则重新扔,即1/4*(1+T);这时1+T是结束游戏所扔次数;第一次扔到A,第二次扔到B,重新扔,即3/41/4(2+T);2+T是结束游戏所仍次数;第一次扔到A,第二次扔到A,结束游戏。3/43/42;2为结束游戏所仍次数;所以T=1/

2020-05-18 09:26:29

二次探测法

设哈希表长为11,哈希函数为Hash (key)=key%11。存在关键码{43,7,29,22,16,92,44,8,19},采用二次探测法处理冲突,建立的hash表为( )二次探测法:采用开放定址法处理冲突中的二次探测再散列(也即是题目中的二元探测法),则哈希函数变为Hash(key) = (Hash(key) + d) % 11,其中d = 1^2, -1^2, 2^2, -2^2...

2020-05-04 16:02:36

字符串 "YONYOU",有几种不同的全排列方式

如果六个字母不同则有A66 种方法但有两个字母重复,一个字母重复是除以2,两个就是A66 /4=180

2020-05-01 11:22:06

数组A=array[1..100,1..100]以行序为主序存储,设每个数据元素占2个存储单元,基地址为10,则LOC[5,5]应为

m为行,n为列,单个元素k占多少存储单元按行优先存放,第一个元素地址为a[0][0]的话,有LOC(ai,j)=LOC(a0,0)+(i×n+j)×k;按行优先存放,第一个元素地址为a[1][1]的话,有LOC(ai,j)=LOC(a1,1)+[(i-1)×n+(j-1)]×k按列优先存放,第一个元素地址为a[0][0]的话,有LOC(ai,j)=LOC(a0,0)+(j×m+i)×k;...

2020-05-01 11:11:54

(排错问题)6支笔,其笔身和笔帽颜色相同:但6支笔颜色各不相同,求全部笔身都戴错笔帽的可能性有多少种?

排错问题:

2020-04-30 11:46:16

若一序列进栈顺序为e1,e2,e3,e4,e5,问存在多少种可能的出栈序列

可以理解成卡特兰数

2020-04-30 10:32:23

查看更多

勋章 我的勋章
  • 签到新秀
    签到新秀
    累计签到获取,不积跬步,无以至千里,继续坚持!
  • 阅读者勋章Lv2
    阅读者勋章Lv2
    授予在CSDN APP累计阅读博文达到7天的你,是你的坚持与努力,使你超越了昨天的自己。
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv3
    勤写标兵Lv3
    授予每个自然周发布7篇到8篇原创IT博文的用户。本勋章将于次周周三上午根据用户上周的博文发布情况由系统自动颁发。
  • 原力新人
    原力新人
    在《原力计划【第二季】》打卡挑战活动中,成功参与本活动并发布一篇原创文章的博主,即可获得此勋章。