自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

XD的博客

一直努力,千万别急

  • 博客(64)
  • 资源 (1)
  • 收藏
  • 关注

原创 安装CUDNN详细过程

cuDNN(CUDA Deep Neural Network library)是由NVIDIA开发的深度学习GPU加速库。cuDNN包含了许多针对神经网络操作进行高度优化的函数,旨在使深度学习框架能够在NVIDIA的GPU上实现最佳性能,这个库提供了高效计算和加速,支持包括卷积神经网络在内的多种深度学习网络,并兼容多种常见的深度学习软件,如CNTK、Caffe、Theano、Keras、TensorFlow等。

2024-04-15 17:24:46 527

原创 triton入门实战

这篇文章主要讲的是基于官方镜像及, pytorch script 格式模型,构建tritonserver 服务。

2024-04-15 15:22:59 1079

原创 微信签名和微信名真的反应人的性格吗?

微信签名仿佛成了一种心理暗示,反映出人们对美好品质的向往和追求,同时也揭示了他们在现实生活中所缺乏的。经过我多年的观察和总结,发现微信签名或者微信名有个特点,好像生活中越缺少什么,签名就会越写什么。签名是财源广进,八方来踩的可能是缺钱。签名是心静如水的通常生活中容易着急。签名是海纳百川的通常生活中很狭隘。签名是自强不息的通常生活中很懒惰。有的人签名是一首诗,可能文化不高。签名是知足常乐的通常生活中很贪。签名是舍得,这个人生活中很抠门。

2024-04-04 18:35:25 73

原创 paddlepaddle模型转换onnx指导文档

因为安装 完成paddlepaddle后还需要安装其他依赖,所以我们加上 -i 指定国内的pip源。cuda驱动版本为516.94。报错内容: cudnn没有装!成功生成onnx文件。

2024-04-04 17:13:33 668

原创 tensflow模型转onnx实践

TensorFlow™是一个基于数据流编程(dataflow programming)的符号数学系统,被广泛应用于各类机器学习(machine learning)算法的编程实现,其前身是谷歌的神经网络算法库DistBelief [1]。Tensorflow拥有多层级结构,可部署于各类服务器、PC终端和网页并支持GPU和TPU高性能数值计算,被广泛应用于谷歌内部的产品开发和各领域的科学研究 [1-2]。

2024-04-03 17:07:20 938

原创 glm2大语言模型服务环境搭建

ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:更强大的性能:基于 ChatGLM 初代模型的开发经验,我们全面升级了 ChatGLM2-6B 的基座模型。

2024-04-03 16:22:22 922

原创 GLM论文研读

目前已经发展出多种预训练模型,包括自编码模型(如BERT)、自回归模型(如GPT)和编码器-解码器模型(如T5)。然而,这些模型并未在自然语言理解(NLU)、无条件生成和条件生成这三类任务中都达到最佳表现。为此,我们提出了一个基于自回归式空格填充的通用模型(GLM)以应对这一挑战。GLM通过加入二维位置编码,并允许以任意顺序预测片段,优化了空格填充预训练,这使得其在NLU任务上的性能优于BERT和T5。同时,GLM可以通过调整空白数量和长度,针对不同类型的任务进行预训练。

2024-04-02 11:16:35 1655 3

原创 基于Pytorch+昇腾NPU部署baichuan2-7B大模型

Baichuan 2 是百川智能推出的新一代开源大语言模型,采用2.6 万亿Tokens 的高质量语料训练。Baichuan 2 在多个权威的中文、英文和多语言的通用、领域 benchmark 上取得同尺寸最佳的效果。它基于 Transformer 结构,在大约1.2万亿 tokens 上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。项目地址预训练模型modelscope硬件要求:NPU:8 x Ascend NPUsModelLink旨在为华为昇腾芯片。

2024-04-02 11:12:23 1126

原创 昇腾glm3大模型lora微调及推理

ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。ChatGLM3-6B 是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性:更强大的基础模型,更完整的功能支持,更全面的开源序列。

2024-03-29 17:31:26 841

原创 pytorch快速入门中文——07(TensorBoard)

在中,我们向您展示了如何加载数据,如何通过定义为nn.Module子类的模型提供数据,如何在训练数据上训练该模型以及在测试数据上对其进行测试。为了了解发生的情况,我们在模型训练期间打印一些统计数据,以了解训练是否在进行中。但是,我们可以做得更好:PyTorch 与 TensorBoard 集成在一起,TensorBoard 是一种工具,用于可视化神经网络训练运行的结果。本教程使用说明了其某些功能,可以使用将其读入 PyTorch。我们将从。

2023-06-29 09:58:39 1438

原创 pytorch快速入门中文——06(torch.nn)

现在,我们有了一个通用的数据管道和训练循环,您可以将其用于使用 Pytorch 训练许多类型的模型。要了解现在可以轻松进行模型训练,请查看示例笔记本。当然,您需要添加很多内容,例如数据扩充,超参数调整,监控训练,迁移学习等。这些功能可在 fastai 库中使用,该库是使用本教程中所示的相同设计方法开发的,为希望进一步推广其模型的从业人员提供了自然的下一步。我们承诺在本教程开始时将通过示例分别说明torch.nnDataset和DataLoader。

2023-06-29 09:40:19 783

原创 pytorch快速入门中文——05

在幕后,每个原始的 Autograd 运算符实际上都是在张量上运行的两个函数。正向函数从输入张量计算输出张量。反向函数接收相对于某个标量值的输出张量的梯度,并计算相对于相同标量值的输入张量的梯度。在 PyTorch 中,我们可以通过定义的子类并实现forward和backward函数来轻松定义自己的 Autograd 运算符。然后,我们可以通过构造实例并像调用函数一样调用新的 Autograd 运算符,并传递包含输入数据的张量。在此示例中,我们将模型定义为而不是,其中是三次的勒让德多项式。

2023-06-29 09:30:00 590

原创 pytorch快速入门中文——04(训练图片分类器)

之前从“神经网络”部分复制神经网络,然后对其进行修改以获取 3 通道图像(而不是定义的 1 通道图像)。让我们使用分类交叉熵损失和带有动量的 SGD。

2023-06-28 17:32:21 1511

原创 pytorch快速入门中文——03

您只需要定义forward函数,就可以使用autograd为您自动定义backward函数(计算梯度)。您可以在forward函数中使用任何张量操作。模型的可学习参数由返回让我们尝试一个32x32随机输入。注意:该网络的预期输入大小(LeNet)为32x32。要在 MNIST 数据集上使用此网络,请将图像从数据集中调整为32x32。注意torch.nn仅支持小批量。整个torch.nn包仅支持作为微型样本而不是单个样本的输入。例如,nn.Conv2d将采用的 4D 张量。如果您只有一个样本,只需使用。

2023-06-28 17:20:34 960

原创 pytorch快速入门中文——02

是 PyTorch 的自动差分引擎,可为神经网络训练提供支持。在本节中,您将获得有关 Autograd 如何帮助神经网络训练的概念性理解。

2023-06-28 17:02:36 1121

原创 pytorch快速入门中文——01

无缝替换NumPy,并且通过利用GPU的算力来实现神经网络的加速。通过自动微分机制,来让神经网络的实现变得更加容易。

2023-06-28 16:56:08 1193

原创 python中的函数——笔记

不仅Python函数是真正的对象,任何Python对象都可以表现得像函数。为此,只需实现实例方法__call__。实现__call__方法的类是创建函数类对象的简便方式,此时必须在内部维护一个状态,让它在调用之间可用,例如BingoCage中的剩余元素。装饰器就是这样。装饰器必须是函数,而且有时要在多次调用之间“记住”某些事[例如备忘(memoization),即缓存消耗大的计算结果,供后面使用。创建保有内部状态的函数,还有一种截然不同的方式——使用闭包。

2023-03-07 09:58:06 391 1

原创 python的文本和字节序列

可以肯定的是,某些字节流不是ASCII,因为其中包含大于127的字节值,而且制定UTF-8和UTF-16的方式也限制了可用的字节序列。因此,从Python 3的str对象中获取的元素是Unicode字符,这相当于从Python 2的unicode对象中获取的元素,而不是从Python 2的str对象中获取的原始字节序列。:编码是在码位和字节序列之间转换时使用的算法。一种重要的编码,是其他编码的基础,例如cp1252和Unicode(注意,latin1与cp1252的字节值是一样的,甚至连码位也相同)。

2023-03-06 10:12:26 535

原创 python字典和集合——笔记

也就是说,如果有一个类继承了dict,然后这个继承类提供了__missing__方法,那么在__getitem__碰到找不到的键的时候,Python就会自动调用它,而不是抛出一个KeyError异常。如果给这个类一个映射,它会返回一个只读的映射视图。因为Python会设法保证大概还有三分之一的表元是空的,所以在快要达到这个阈值的时候,原有的散列表会被复制到一个更大的空间里面。1.1如果一个对象是可散列的,那么在这个对象的生命周期中,它的散列值是不变的,而且这个对象需要实现__hash__( )方法。

2023-03-05 12:49:31 539

原创 python中的序列——笔记

ABC语言时一个致力于为初学者设计编程环境的长达十年的研究项目。Python也从ABC那里继承了用统一的风格去处理序列数据这一特点。不管是哪种数据结构,字符串、列表、字节序列、数组、XML元素,抑或是数据库查询结果,它们都共用一套丰富的操作:迭代、切片、排序,还有拼接。在切片和区间操作里不包含区间范围的最后一个元素是Python的风格,这个习惯符合Python、C和其他语言里以0作为起始下标的传统。这样做带来的好处如下。

2023-02-28 21:03:59 1036

原创 【论文学习】RNN Encoder–Decoder机器翻译

在本文中,作者提出了一种称为RNN编码器-解码器的新型神经网络模型-由两个循环解码器组成神经网络。一个RNN作为编码器将一系列符号编码为固定长度的向量表示,另一个RNN作为解码器将固定长度的向量表示形式解码为另一个符号序列。所提出模型的编码器和解码器是联合训练的,最大化在给定源序列的情况下得出目标序列的条件概率。通过使用RNN编码器- 解码器计算的短语对的条件概率作为现有对数线性中的附加功能模型。

2022-10-11 14:56:36 1276

原创 torch.nn中GRU使用

【代码】torch.nn中GRU使用。

2022-10-10 13:56:26 3027

原创 torch.nn中LSTM使用

【代码】torch.nn中LSTM使用。

2022-10-09 18:27:58 3061 4

原创 随笔记录——gensim word2vector使用

实现例子:这里是处理文本翻译数据集,这里使用word2vec进行词嵌入。

2022-10-09 16:09:24 377

原创 机器学习——朴素贝叶斯

朴素贝叶斯

2022-08-19 15:16:57 312

原创 torch.nn.utils.rnn下面pack_padded_sequence和pad_packed_sequence方法

这个函数主要做了两件事: pad 和封装,因为在rnn模型中,一般先将batch中的数据按照一个时间步一个时间步喂入模型的,这个包的主要作用就是将按照样本堆叠的数据,抽取出时间步这个维度重新堆叠。batch_first: batch 是否在第一位,默认值是False,上面的例子指定为了True,因为是二维,方便观察理解,一般放入lstm或者gru是需要时间步放在第一位的。需要注意的是,默认条件下,我们必须把输入数据按照序列长度从大到小排列后才能送入 pack_padded_sequence ,否则会报错。.

2022-08-11 11:14:06 1070

原创 随笔记录——pytorch词嵌入方法

一般先将原始的文本数据进行初步的词嵌入,再进行模型训练, pytorch也提供了基本的词嵌入方法。

2022-08-03 15:30:09 499

原创 随笔记录——pandas 中 Dataframe.to_dict()

在工作中,使用pandas时,常常需要将dataframe中的数据按照指定的格式输出给下游使用,很多时候,下游指定的格式并不是很特别,而是比较常见的,这时,我们就不需要自己专门定义方法去处理了,可以先看一下有没有现成的方法可以调用,会节省我们很多时间,提高我们程序的效率。下面我介绍一下dataframe的一个格式化输出的方法,to_dict()1、 使用默认的to_dict()格式化输出df = pd.DataFrame({'col1': [1, 2], 'col

2022-03-30 14:21:30 2703

原创 使用torch随机初始化参数

1、从均匀分布中生成值w = torch.zeros(3, 5)wOut[75]: tensor([[0., 0., 0., 0., 0.], [0., 0., 0., 0., 0.], [0., 0., 0., 0., 0.]])torch.nn.init.uniform_(w, a=10, b=15)Out[76]: tensor([[11.8949, 11.0836, 10.6348, 13.4524, 12.8051], [14.5289

2022-03-21 18:09:46 2667

原创 随笔记录——pytorch创建tensor函数

1、通过复制数据构造张量1.1 torch.tensor()torch.tensor([[0.1, 1.2], [2.2, 3.1], [4.9, 5.2]])Out[111]: tensor([[0.1000, 1.2000], [2.2000, 3.1000], [4.9000, 5.2000]])torch.tensor([0, 1]) Out[112]: tensor([0, 1])torch.tensor([[0.11111, 0.222222, 0.

2022-03-21 15:23:01 2035

原创 随笔记录——pytorch一元通用函数

1、获取一维tensor中的最大值import torcha = torch.randn(1, 3)aOut[4]: tensor([[-0.6893, -0.3273, 0.6810]])torch.max(a)Out[5]: tensor(0.6810)1.1、 二维或者更多维数据中,获取各个维度的最大值a = torch.randn(4, 4)aOut[7]: tensor([[ 0.0531, 0.1278, 0.0252, -0.7423], [ 0

2022-03-16 18:40:20 3369

原创 随笔记录——混淆矩阵(机器学习)

正确率在分类问题中最常见的指标是正确率(Accuracy),表示模型预测正确的样本比例。 正确率的定义如下:Accuracy=TP+TNTN+FN+FP+FNAccuracy = \frac{TP + TN}{TN+FN+FP+FN}Accuracy=TN+FN+FP+FNTP+TN​正确率指标在样本不均衡的时候不是一个很好的度量模型好坏的指标。例如在文本情绪分类数据集中,正面的样本占比为80%,负面的内容占比只有20%。如果一个分类模型将所有的样本都预测为正面,这个模型显然是一个无用的模型,但是它的.

2022-03-16 11:21:48 1035

原创 pytorch错误——Torch not compiled with CUDA enabled

在Mac上面调试textCNN 分类模型,在调试时发现运行到这一句报错:报错内容为: Torch not compiled with CUDA enabled调查发现, 是跟pytorch和cuda版本不兼容有关, 但是我想到我的mac上并没有显卡,所以这里不应该这么调用cuda,只需要指定下使用cpu。device = torch.device('cpu')s = torch.from_numpy(ndarray).long().to(device)完结。。。...

2022-03-15 11:25:05 4636 1

原创 pyahocorasick使用(ac自动机)

一、简介pyahocorasick是一个快速高效的库,用于精确或近似的多模式字符串搜索,这意味着您可以在一些输入文本中同时找到多个关键字字符串。字符串“索引”可以提前构建,并保存(作为pickle)到磁盘,以便以后重新使用。该库提供了一个ahocarasick Python模块,您可以将其用作Trie之类的普通dict,或者将Trie转换为自动机,以实现高效的Aho-Carasick搜索。二、安装pip install pyahocorasick三、使用1.新建自动机可以将Automaton类

2022-03-15 10:54:20 2013

原创 随笔记录(扩展)——np.where

where基本使用15.1、使用where 按照条件查询出两个字段的值xarr = np.array([1, 2, 3, 4, 5])yarr = np.array([-1, -2, -3, -4, -5])cond = np.array([True, False, True, False, False])np.where(cond, xarr, yarr)Out[174]: array([ 1, -2, 3, -4, -5])15.2、使用where在原有的array中填充常数a

2022-03-14 14:48:07 1268

原创 随笔记录——torch.squeeze/torch.unsqueeze

使用squeeze()移除输入的tensor中,大小为1的维度import torchx = torch.zeros(2, 1, 2, 1, 2)y = torch.squeeze(x)y.shapetorch.Size([2, 2, 2])使用squeeze()移除输入的tensor中,指定维度的大小为1的维度y = torch.squeeze(x, 0)y.shapetorch.Size([2, 1, 2, 1, 2])y = torch.squeeze(x, 1)y.sha

2022-03-08 14:42:19 164

原创 随笔记录——numpy.pad()

1.直接对列表两端进行填充a = list(range(1, 6))np.pad(array=a, pad_width=(2, 3), mode='constant', constant_values=(100, -100))Out[12]: array([ 100, 100, 1, 2, 3, 4, 5, -100, -100, -100])其中array: 需要pad的列表pad_width: 填充到每个轴边缘的数值,在这里,就是说在 左边填充两个元素,

2022-03-07 15:56:02 2767

原创 随笔记录——python中的日期和时间数据处理

一、标准库中的日期和时间处理1、使用datetime包计算时间1.1 使用datetime包获取当前时间from datetime import datetimenow = datetime.now()nowOut[3]: datetime.datetime(2022, 3, 4, 17, 16, 55, 703231)now.year, now.month, now.dayOut[4]: (2022, 3, 4)1.2、计算两个datetime的时间差delta = datet

2022-03-04 18:24:33 589

原创 随笔记录——pandas(数据联合)

5、根据索引合并DataFrame中用于合并的键是它的索引。在这种情况下,你可以传递left_index=True或right_index=True(或者都传)来表示索引需要用来作为合并的键:df1 = pd.DataFrame({'col1':range(5), 'col2':['a', 'b', 'c', 'd', 'e']})df1Out[91]: col1 col20 0 a1 1 b2 2 c3 3 d4

2022-03-03 14:39:24 665

原创 随笔记录——pandas(数据联合与合并)

包含在pandas对象的数据可以通过多种方式联合在一起:pandas.merge根据一个或多个键将行进行连接。对于SQL或其他关系型数据库的用户来说,这种方式比较熟悉,它实现的是数据库的连接操作。pandas.concat使对象在轴向上进行黏合或“堆叠”。combine_first实例方法允许将重叠的数据拼接在一起,以使用一个对象中的值填充另一个对象中的缺失值。1.1、两个df都存在相同key,进行mergedf1 = pd.DataFrame({'col1':range(6), 'col1_

2022-03-01 16:01:14 2728

BEG模型原始论文:C-Pack: Packaged Resources To Advance General Chinese

BGE(北京智源人工智能研究院提出的embedding模型)可能是指北京智源人工智能研究院开发的一种新型的嵌入(embedding)技术或模型。在自然语言处理(NLP)中,嵌入技术是用来将词汇、句子或文档转换为高维空间中的向量表示,这些向量能够捕捉到词汇之间的语义关系。 由于您提供的信息有限,我将基于常见的嵌入模型的一般性质来续写: 北京智源人工智能研究院提出的BGE模型可能具有以下特点: 1. **高维表示**:BGE模型可能使用了一种先进的算法来将词汇映射到高维空间中,使得语义上相似的词汇在向量空间中距离较近。 2. **上下文感知**:该模型可能能够根据词汇的上下文环境动态调整其嵌入表示,以更好地捕捉词汇的多义性和上下文依赖性。 3. **预训练能力**:BGE可能在大规模语料库上进行了预训练,以学习语言的通用特征和模式。 4. **可扩展性**:模型设计可能考虑了可扩展性,允许在不同的语言或领域中进行定制和微调。 5. **计算效率**:为了适应不同的应用场景,BGE可能在设计时考虑了计算效率,以便于在资源受限的设备上运行。 6. **多语言支持**:该模型可能

2024-04-18

EetroMAE原论文

EetroMAE(Efficient Transformer-based Multi-Modal AutoEncoder)是一种基于Transformer的多模态自编码器模型,旨在有效地处理和融合来自不同模态的数据,例如文本、图像和音频。该模型采用了自编码器的架构,其中编码器和解码器都是基于Transformer的模型,可以同时处理多种类型的数据。 EetroMAE模型的主要特点包括: 多模态数据处理:EetroMAE可以同时处理来自不同模态的数据,例如文本、图像和音频。这使得它非常适合于需要同时分析多种类型数据的应用场景,例如多媒体内容理解、语音识别和图像描述生成等。 高效性:EetroMAE采用了高效的Transformer架构,可以快速地处理大量数据。同时,该模型还可以通过模型剪枝和量化等技术进一步减小模型大小和计算复杂度,使其适用于资源受限的环境。 自编码器架构:EetroMAE采用了自编码器的架构,其中编码器用于将输入数据编码为低维表示,解码器则用于将低维表示解码回原始数据。这种架构可以帮助模型学习到数据的有用特征,并减少噪声和冗余信息的影响。

2024-04-18

国内可以用的chatgpt网站汇总以及各个网站的优劣对比,速度对比,性能对比

ChatGPT 是一个人工智能聊天机器人程序,由 OpenAI 于 2022 年 11 月推出。该程序基于大型语言模型 GPT-3.5,使用指令微调(Instruction Tuning)和基于人类反馈的强化学习技术(RLHF)训练而成。 ChatGPT 的使用场景包括: 1. 文案写作:可以帮助写文章、邮件、简历等各种类型的文本。 2. 代码调试:可以帮助理解代码,找出错误并提供解决方案。 3. 机器翻译:可以将一种语言翻译成另一种语言。 4. 角色扮演:可以模拟任何角色,与用户进行对话。 5. 知识查询:可以回答大多数关于科学、技术、历史、文化等方面的问题。 ChatGPT 的优点包括: 1. 流畅性:可以生成流畅、自然的对话。 2. 知识面广:由于使用了大量的数据训练,因此具有广泛的知识面。 3. 可定制性:可以通过指令调整其行为。 ChatGPT 的局限性包括: 1. 时效性:由于训练数据只到 2023,因此对于此之后发生的事件可能不太了解。 2. 知识准确性:由于其生成内容基于统计概率,因此无法保证所有内容都是准确无误的。 3. 道德和伦理:可能会生成不道德或不符合伦理的内容

2024-04-17

sql server2008安装教程-带详细图片和每一步讲解

SQL Server 2008 是微软公司推出的一款关系型数据库管理系统,它是 SQL Server 数据库管理系统家族中的一个重要版本,于2008年发布。它提供了广泛的企业级数据管理功能,包括数据库引擎、分析服务、报表服务以及集成服务等。 以下是 SQL Server 2008 的一些关键特性: 1. **安全性**:SQL Server 2008 提供了高级的安全特性,如透明数据加密(TDE)、加密的备份、SQL Server Audit等,帮助用户保护他们的数据不受未授权访问和篡改。 2. **性能和可伸缩性**:它包含了许多性能增强特性,比如资源监控器、备份压缩、分区表和索引等,帮助用户优化性能并支持大规模的数据处理。 3. **高可用性**:通过数据库镜像、故障转移群集等功能,SQL Server 2008 可以提供高可用性的解决方案,减少系统故障时的停机时间。 4. **商业智能**:SQL Server 2008 集成了强大的商业智能工具,如 Analysis Services、Reporting Services 和 Integration Services,支持数据挖

2024-04-17

MySQL安装配置教程-带详细配置图片版本

【我真的不允许】还有人不懂MySQL!速看这篇教程! 啊啊啊啊啊啊啊!!你们知道吗?最近我在学习MySQL,简直打开了新世界的大门! 以前我对数据库一窍不通,但现在,我可以说:“MySQL,我来了!” 这篇教程超级详细,从安装到配置,每一步都有图解,简直小白友好到哭! 我跟着教程一步步操作,居然一次成功了!这不科学啊! 家人们,你们还在等什么?赶紧学起来,让我们一起成为MySQL大师吧! 这篇教程真的是宝藏,我压箱底推荐给你们! 记住,停止摆烂,从今天开始学习MySQL! #MySQL #数据库 #编程小白 #学习心得

2024-04-15

水仙花数问题代码,里面含有解读和解题思路

水仙花数题目解读,解题思路, 代码,代码解读,优化思路,优化代码。 水仙花数问题介绍 定义:水仙花数(有时也称为阿姆斯特朗数)是指一个n位数,它是其每个位上的数字的n次幂之和。 示例:153是一个三位的水仙花数,因为 $1^3 + 5^3 + 3^3 = 153$ 用途:水仙花数是数学中的一个有趣现象,常用于编程练习和教育中,以增强对数字操作和循环结构的理解。它们也是数学娱乐和探索数字属性的一个有趣领域。 水仙花数的检测 要检测一个数是否为水仙花数,可以遵循以下步骤: 确定位数:首先确定数字的位数n。 分解数字:将数字分解为其各个位上的数字。 计算幂和:计算每个位上数字的n次幂之和。 比较:如果这个幂和等于原始数字,则该数字是水仙花数。 Python代码实现

2024-04-11

Sora 关于大型视觉模型的背景、技术、局限性和机会的回顾

Sora,一款由OpenAI公司开发的文本转视频的AI模型,自发布以来便在科技界引起了广泛关注。这款模型的独特之处在于其能够根据文本描述快速生成长达一分钟的高质量视频内容,这不仅展示了AI在视频生成领域的进步,也标志着人工智能在理解和模拟现实世界方面迈出了重要一步。 Sora的推出,被视为AI领域的又一爆炸性新闻,其能力之强大,甚至被业内人士评价为“小型核爆炸”。这一技术的出现,不仅推动了生成式AI的发展,也为多个行业带来了潜在的颠覆性变革。从生物医学到化学物理研究,Sora的潜在应用场景广泛,其算力甚至有望帮助人类推演尚未掌握的自然规律。 Sora的核心技术在于其“世界模拟器”的概念,这是OpenAI首次提出并实践的理念。通过这一模型,AI不仅能够学习信息,更能灵活运用这些信息,模拟出一个接近真实的虚拟世界。Sora展现出的实力,让现有的其他AI模型望尘莫及,同时也引发了关于AI未来发展方向的讨论。 尽管Sora的潜力巨大,但也存在一些质疑的声音。有专家指出,像Sora这样仅根据文字提示生成逼真视频的能力,并不能完全代表模型理解了物理世界。

2024-04-11

chatgpt提示词工厂,专业,准确,方便的得到自己想要的答案

想让ChatGPT更好地为你服务吗?快来试试最新的提示词项目吧!这些精心设计的提示词可以帮助你更精准地引导AI,解锁更多有趣、实用的对话场景。无论是写故事、提问题还是日常交流,提示词项目都能助你一臂之力!赶快加入我们,体验AI助手的无限可能! ChatGPT提示词项目,是由OpenAI团队精心研发的一项创新技术。这个项目通过训练大规模语言模型,使其能够理解人类的语言,并根据提示词生成相应的回答。这意味着,无论是需要写一篇精彩的文章、解决一个复杂的问题,还是希望有一个有趣的对话伙伴,ChatGPT提示词项目都能为你提供卓越的体验。 这个项目的优势在于其强大的语言理解和生成能力。它不仅能够理解你的问题,还能够根据你的提示词,生成富有创意和逻辑性的回答。这无疑为我们的生活、工作和学习带来了极大的便利。想象一下,当你需要快速获取某个信息时,只需向ChatGPT提问,就能立刻得到满意的答案;当你需要写一篇文章或做一份报告时,ChatGPT提示词项目能帮你整理思路、生成大纲,甚至直接撰写文章。这将极大地提高你的工作效率,让你有更多的时间去做自己喜欢的事情。

2024-04-11

大模型微调经典论文Qlora

QLORA(Quantization-aware Low-Rank Adaptation)是一种高效的微调方法,专为大型语言模型(LLMs)设计,以减少在微调过程中所需的内存使用。这项技术允许在单个48GB GPU上微调具有650亿参数的模型,同时保持与16位微调相当的性能水平。 QLORA的核心创新包括4位NormalFloat(NF4)量化和双重量化技术,这些技术使得模型能够在保持性能的同时显著降低内存占用。此外,QLORA还引入了分页优化器(Paged Optimizers),以管理内存峰值,从而使得在单个GPU上微调大型模型成为可能。 通过QLORA,研究人员成功训练了名为Guanaco的模型系列,这些模型在Vicuna基准测试中表现出色,其中最大的模型达到了ChatGPT性能水平的99.3%,仅需在单个GPU上微调24小时即可达到这一水平。此外,QLORA的高效性使其能够在小型高质量数据集上实现最先进的结果,甚至在使用较小模型的情况下也能与以前的最先进模型相媲美。

2024-04-10

实体关系抽取经典方法tplinker

Tplinker(Token Pair Linking for Chinese NER)是一种用于中文命名实体识别(NER)的神经网络模型,由华为诺亚方舟实验室在2020年提出。Tplinker模型的特点在于它能够有效地识别中文文本中的实体,并且能够处理实体之间的重叠问题,这是中文NER任务中的一个挑战。 Tplinker模型的主要特点包括: 1. **实体边界感知**:Tplinker模型设计了一种边界感知的机制,能够准确地识别实体的起始和结束位置。这对于处理中文文本中实体的复杂性尤为重要。 2. **实体关系建模**:Tplinker模型不仅能够识别实体,还能够建模实体之间的关系。它通过一种基于图的方法来表示实体之间的潜在关系,从而提高了识别的准确性。 3. **重叠实体处理**:在中文文本中,实体之间可能会出现重叠的情况,例如一个实体可能是另一个实体的子字符串。Tplinker模型通过特殊的标注策略和模型设计来处理这种重叠,提高了模型的鲁棒性。 4. **全局和局部信息融合**:Tplinker模型通过融合全局和局部信息来提高实体识别的准确性。全局信息指的是整个句子或文本的上下文

2024-04-04

T5模型,经典模型原理

T5(Text-to-Text Transfer Transformer)是由Google Research在2020年提出的一种自然语言处理模型。T5模型的核心思想是将所有的NLP任务都转化为文本到文本的问题,即输入和输出都是文本的形式。这种统一的框架使得T5模型能够使用相同的模型架构、损失函数和训练过程来处理不同的NLP任务,从而简化了模型的训练和应用。 T5模型的主要特点包括: 1. **文本到文本的框架**:T5模型将所有的NLP任务,如文本分类、机器翻译、问答、摘要等,都重新格式化为文本到文本的任务。例如,对于文本分类任务,模型的输入是将文本和任务特定的前缀拼接在一起,输出是分类标签的文本表示。 2. **预训练和微调**:T5模型首先在大规模的文本语料库上进行预训练,学习通用的语言表示。然后,针对特定的NLP任务,使用任务特定的数据集进行微调。这种两阶段的训练策略使得T5模型能够在不同的任务上取得很好的性能。 3. **Transformer架构**:T5模型基于Transformer架构,这是一种基于自注意力机制的模型,能够有效地处理序列数据并捕捉长距离依赖。T5模型在T

2024-04-04

实体关系抽取的经典方式-casrel

CasRel(Cascade Relational Proposal Network)是一种用于关系抽取的神经网络模型,由复旦大学自然语言处理实验室在2019年提出。关系抽取是自然语言处理中的一个重要任务,旨在从文本中识别实体之间的语义关系。CasRel模型采用了一种级联的框架,将关系抽取分为两个步骤:实体识别和关系分类。 CasRel模型的主要特点包括: 1. **级联框架**:CasRel模型首先使用一个实体识别模块来检测文本中的所有实体,然后对于每一对实体,使用关系分类模块来判断它们之间是否存在某种特定的关系。这种级联的方式允许模型更加专注于实体之间的相互作用,而不是单独考虑实体或关系。 2. **三元组表示**:CasRel模型输出的是一种三元组的形式,即(头实体,关系,尾实体)。这种表示方式更加直观和符合自然语言中的关系描述。 3. **关系分类的注意力机制**:在关系分类阶段,CasRel模型使用了一种注意力机制来选择与特定关系相关的文本片段。这种机制可以帮助模型更好地理解实体之间的上下文关系。 4. **端到端训练**:CasRel模型可以端到端地进行训练,即实体识别和关

2024-04-04

软件测试中需要构建测试数据,项目内包含构建测试数据的原则和一些方法包

测试数据构建是软件开发过程中的一个关键环节,它涉及到创建用于测试软件系统的数据集合。这些数据需要能够覆盖各种可能的场景,以确保软件在不同条件下的稳定性和可靠性。一个良好的测试数据构建项目通常包含以下几个关键方面: 需求分析: 在开始构建测试数据之前,首先需要理解软件的需求和预期行为。 分析软件的功能点、业务流程以及可能的异常情况。 测试策略制定: 根据需求分析的结果,制定详细的测试计划和策略。 确定需要测试的不同场景,包括正常流程、边界条件、异常流程等。 数据模型设计: 设计测试数据的结构,确保它们能够模拟真实世界的使用情况。 包括输入数据、预期输出、数据库记录、文件内容等。 数据生成: 根据设计的数据模型,使用自动化工具或编写脚本来生成测试数据。 可以包括随机生成、基于模板生成、基于规则生成等方法。 数据验证: 对生成的测试数据进行验证,确保它们符合预期的格式和内容。 可以通过编写验证脚本来检查数据的正确性。

2024-04-03

chatgpt-本地部署项目

ChatGPT的本地部署项目通常指的是将GPT系列模型,如ChatGPT,放置在个人或组织的本地服务器上,以便在不需要联网的情况下使用其功能。这样的部署方式可以提供更好的数据隐私保护,减少对外部服务的依赖,并在一定程度上提高响应速度和可用性。以下是对ChatGPT本地部署项目的详细描述

2024-04-03

基于php的酒店管理系统

项目名称:基于PHP的酒店管理系统 项目概述: 基于PHP的酒店管理系统是一个Web应用程序,旨在帮助酒店业者高效地管理其业务运营,包括房间管理、预订管理、客户关系管理、财务报表等。该系统提供了一个用户友好的界面,使得酒店工作人员能够轻松处理日常任务,提升客户服务质量,同时优化酒店的业务流程。 项目功能: 房间管理:管理房间的类型、状态、价格和设施,包括添加新房间、编辑房间信息、设置房间的可用性等。 预订管理:创建、编辑和查看客户预订,包括预订时间、入住和退房日期、房间分配、客户信息和支付状态。 客户关系管理:维护客户信息,包括个人信息、预订历史、特殊需求和反馈,以提升客户满意度和忠诚度。

2024-04-03

基于SVM算法的DDos攻击识别

项目名称:基于SVM算法的DDoS攻击识别系统 项目概述: DDoS(分布式拒绝服务)攻击是一种常见的网络攻击手段,它通过占用目标系统的资源,使得合法用户无法获得服务。为了有效识别和防御DDoS攻击,本项目将利用支持向量机(SVM)算法开发一个DDoS攻击识别系统。该系统通过对网络流量进行实时监控和分析,判断是否存在DDoS攻击行为,从而及时采取措施,保障网络安全。

2024-04-03

基于java语言SSM框架,在线考试系统

在线考试系统是一种利用计算机网络技术实现在线答题、自动阅卷和成绩管理的系统。它可以帮助学校、企业或培训机构提高考试效率,降低管理成本。以下是使用Java语言和SSM(Spring、Spring MVC、MyBatis)框架开发的在线考试系统的项目描述。 项目名称:在线考试系统 项目概述 在线考试系统是一个基于B/S架构的Web应用程序,使用Java作为后端开发语言,结合SSM框架进行开发。该系统旨在提供一个方便、高效、公平的在线考试环境,支持多种题型,自动阅卷和成绩管理。

2024-04-03

javascript语言编写,医院管理系统

医院管理系统是一种用于管理医院运营的软件系统,它能够提高医院的工作效率,优化患者的就医体验。以下是使用JavaScript编写的医院管理系统项目介绍。 项目名称:智慧医院管理系统 项目概述 智慧医院管理系统是一个基于Web的应用程序,它使用JavaScript作为主要编程语言,结合HTML和CSS构建用户界面。该系统旨在帮助医院实现信息化管理,提升医疗服务质量,降低运营成本

2024-04-03

招聘系统,源码和项目描述,C#项目

招聘系统是一个用于帮助企业或组织进行招聘流程管理的软件系统。该系统可以简化招聘流程,提高招聘效率,减少人力成本。下面是一个简单的招聘系统项目描述和部分C#代码示例。 项目描述 招聘系统通常包括以下功能: 职位发布与管理:允许企业发布新的职位,编辑或删除现有职位。 简历管理:候选人可以上传简历,企业可以查看、筛选和管理简历。 招聘流程管理:包括安排面试、发送面试通知、跟踪面试状态等功能。 通知与沟通:系统可以通过邮件或短信通知候选人面试安排或其他相关信息。 统计分析:提供招聘数据的统计和分析,帮助企业了解招聘效果,优化招聘策略。

2024-04-03

hbase基础知识介绍powerpoint

hbase基础知识介绍powerpoint

2017-04-01

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除