- 博客(1574)
- 资源 (284)
- 收藏
- 关注
原创 [python]python-pcl在ubuntu下运行报错 poll_for_event: Assertion `!xcb_xlib_threads_sequence_lost‘ failed.
【代码】[python]python-pcl在ubuntu下运行报错 poll_for_event: Assertion `!
2024-04-23 12:01:19 86
原创 类似nohup在windows通过cmd后台运行进程方法
windows相应功能的命令行如下(此方法进程有页面,可能会在桌面展示,关闭窗口后进程消失。以下powershell方法,可实现后台运行,退出powershell后依然运行。cmd下难以实现nohup能力,但使用powershell可以。
2024-04-22 22:13:02 448
原创 [matlab]MATLAB2016a+yalmip+clpex12.6.0配置与测试
版本:MATLAB2016aYALMIP下载链接在IBM的官网上下载cplex的安装包其中community-edition可以免费试用,但最多只能计算1000个变量或1000个约束条件的优化问题。而扩展版则需要购买我使用的版本以及下载庐江:cplex_studio126.win-x86-64.exe提取码: 58lu。
2024-04-22 07:43:12 423
原创 Python中pyside2出现的pyside2 qt platform plugin could be in错误及其解决方法
变量值可以在1的方法中的 plugin_path 的值 也就是你所安装的Pyside2包中 plugins\platforms 所在的完整地址。这是找不到QT平台的插件,这是环境变量'QT_QPA_PLATFORM_PLUGIN_PATH'出现错误。变量名 = QT_QPA_PLATFORM_PLUGIN_PATH。python版本: python 3.8。系统平台:Win10 64bit。安装 pyside2。
2024-04-21 13:18:08 214 1
原创 openMVS安装教程
OpenMVS(Multi-View Stereo reconstruction library)是一个用于多视角立体重建的开源库,用于从多个图像中创建高质量的三维模型。它可以从图像集合中恢复三维几何和纹理信息,以创建更真实的场景重建。注意:openMVS库本身是不具备从image标定相机内外参功能的,因此后续使用的时候还要搭配其它pipeline,如openMVG或者其他sfm-pipeline。
2024-04-20 15:19:30 617
原创 [vapkg]解决vcpkg下载缓慢的问题
第五步:直接点击右上角关闭按钮关闭vcpkg,重新打开,重新输入install命令即可,可以看到vcpkg已经采用了我们自己下好的包而不是它重新下一个了,这里利用的是vcpkg的缓存机制。至此,整个安装应该就很快了,然后就是愉快的安装成功啦~遇到别的包下载缓慢也可以采用这个方法,同一个库中断多次下载都是没有问题的,只要vcpkg还卡在Downloading中就可以.这个目录下面看看你要下载的依赖的文件名是什么,把你在外面下载的文件改成那个名字,然后放在。这个文件夹中看看vcpkg对这个文件的命名是什么。
2024-04-20 14:36:37 264
原创 [python]zipfile模块加入注释后压缩包里面中文会乱码解决方法
中的一个模块,zipfile里有两个class, 分别是ZipFile和ZipInfo,用来创建和读取zip文件,而ZipInfo是存储的zip文件的每个文件的信息的。ZIP文件是一种常见的存档文件格式,它可以将多个文件和目录压缩为一个文件,以便于传输和存储。下,找到lib文件夹下的zipfile.py文件。也可以在源码中选中zipfile+然后Ctrl+左键直接跳转打开zipfile.py文件。最后保存zipfile.py文件即可。1. 在使用zipfile模块,出现中文乱码的解决办法:**如下图。
2024-04-20 07:59:02 254
原创 [大模型]TransNormerLLM-7B Lora 微调
LoraConfig这个类中可以设置很多参数,但主要的参数没多少,简单讲一讲,感兴趣的同学可以直接看源码。task_type:模型类型:需要训练的模型层的名字,主要就是attention部分的层,不同的模型对应的层的名字不同,可以传入数组,也可以字符串,也可以正则表达式。rlora的秩,具体可以看Lora原理lora_alphaLora alaph,具体作用参见Lora原理Lora的缩放是啥嘞?当然不是r(秩),这个缩放就是, 在这个LoraConfig中缩放就是4倍。
2024-04-20 06:16:39 717
原创 [大模型]TransNormerLLM-7B WebDemo 部署
在autodl平台中租一个3090/4090等24G显存的显卡机器,如下图所示镜像选择PyTorch–>2.0.0–>3.8(ubuntu20.04)–>11.8(11.3版本以上的都可以)接下来打开刚刚租用服务器的JupyterLab, 图像 并且打开其中的终端开始环境配置、模型下载和运行演示。pip换源和安装依赖包。
2024-04-20 06:15:39 462
原创 [大模型]TransNormerLLM-7B FastApi 部署调用
TransNormerLLM 是一个基于线性注意力的 LLM,在准确性和效率方面均优于传统的基于 softmax 注意力的模型。它是在包含多达1.4 万亿个令牌的高质量语料库上进行训练的,TransNormerLLM 从之前的线性注意力架构 TransNormer 演变而来,进行了高级修改,包括 LRPE 位置嵌入、闪电注意力加速、新的门控和标准化机制(将在下文进行简要的介绍)。TransNormerLLM 在多项广受认可的中文、英文以及多语言通用和特定领域基准测试中取得了与其规模相当的竞争性表现。
2024-04-19 11:22:14 730
原创 [大模型]TransNormerLLM-7B 接入 LangChain 搭建知识库助手
在 autodl 平台中租赁一个 3090/4090 等 24G 显存的显卡机器,如下图所示镜像选择 PyTorch–>2.0.0–>3.8(ubuntu20.04)–>11.8接下来打开刚刚租用服务器的 JupyterLab,并且打开其中的终端开始环境配置、模型下载和运行 demo。pip 换源加速下载并安装依赖包。
2024-04-19 11:20:16 342
原创 [大模型]Qwen-Audio-chat WebDemo 部署
是阿里云研发的大规模音频语言模型(Large Audio Language Model)。Qwen-Audio 可以以多种音频 (包括说话人语音、自然音、音乐、歌声)和文本作为输入,并以文本作为输出。
2024-04-19 11:19:42 347
原创 [大模型]Qwen-Audio-chat FastApi 部署调用
是阿里云研发的大规模音频语言模型(Large Audio Language Model)。Qwen-Audio 可以以多种音频 (包括说话人语音、自然音、音乐、歌声)和文本作为输入,并以文本作为输出。
2024-04-19 11:18:51 273
原创 [大模型]Qwen-1_8B-chat CPU 部署
本文介绍了在 Intel 设备上部署 Qwen 1.8B 模型的过程,你需要至少16GB内存的机器来完成这项任务,我们将使用英特尔的大模型推理库来实现完整过程。Bigdl-llm 是一个在英特尔设备上运行 LLM(大语言模型)的加速库,通过 INT4/FP4/INT8/FP8 精度量化和架构针对性优化以实现大模型在 英特尔 CPU、GPU上的低资源占用与高速推理能力(适用于任何 PyTorch 模型)。
2024-04-18 06:45:05 467
原创 [大模型]Qwen-7B-Chat Lora 低精度微调
LoraConfig这个类中可以设置很多参数,但主要的参数没多少,简单讲一讲,感兴趣的同学可以直接看源码。task_type:模型类型:需要训练的模型层的名字,主要就是attention部分的层,不同的模型对应的层的名字不同,可以传入数组,也可以字符串,也可以正则表达式。rlora的秩,具体可以看Lora原理lora_alphaLora alaph,具体作用参见Lora原理Lora的缩放是啥嘞?当然不是r(秩),这个缩放就是, 在这个LoraConfig中缩放就是4倍。
2024-04-18 06:43:01 885
原创 [大模型]Qwen-7B-Chat 接入langchain搭建知识库助手
在autodl平台中租一个3090等24G显存的显卡机器,如下图所示镜像选择PyTorch–>2.0.0–>3.8(ubuntu20.04)–>11.8接下来打开刚刚租用服务器的JupyterLab,并且打开其中的终端开始环境配置、模型下载和运行demo。pip换源和安装依赖包。
2024-04-18 06:42:20 1131
原创 [大模型]Qwen-7B-chat 全量微调
首先我们要准训练模型的代码,这里我们使用的modelscope上的模型,大家自行下载即可。OK,模型下载完毕之后,我们就要准备代码文件。其实全量微调和Lora微调的代码基本一样,都采用了Trainer类来进行训练。只不过在全量微调的时候没有加载LoraConfig,那我就直接给出代码,如果对代有什么问题,大家可以先自行探索Qwen lora的代码解释,有什么不懂的地方可以提Issue。需要把代码中的模型地址修改一下,改成自己的模型地址。
2024-04-18 06:40:20 295
原创 [大模型]Qwen-7B-Chat Ptuning 微调
参考数据加载与模型配置与一致,在此具体讲一下Ptuning的细节:基本原理为冻结主模型全部参数,在训练数据前加入一小段Prompt,之训练Prompt的嵌入层。在Ptuning中,只有soft prompt,是自动学习的,不用人工设置。
2024-04-18 06:39:07 148
原创 [大模型]Qwen-7B-Chat Lora 微调
LoraConfig这个类中可以设置很多参数,但主要的参数没多少,简单讲一讲,感兴趣的同学可以直接看源码。task_type:模型类型:需要训练的模型层的名字,主要就是attention部分的层,不同的模型对应的层的名字不同,可以传入数组,也可以字符串,也可以正则表达式。rlora的秩,具体可以看Lora原理lora_alphaLora alaph,具体作用参见Lora原理Lora的缩放是啥嘞?当然不是r(秩),这个缩放就是, 在这个LoraConfig中缩放就是4倍。
2024-04-18 06:36:05 797
原创 [大模型]Qwen-7B-Chat WebDemo
在autodl平台中租一个3090等24G显存的显卡机器,如下图所示镜像选择PyTorch–>2.0.0–>3.8(ubuntu20.04)–>11.8接下来打开刚刚租用服务器的JupyterLab,并且打开其中的终端开始环境配置、模型下载和运行demo。pip换源和安装依赖包。
2024-04-18 06:35:20 410
原创 [大模型]Qwen-7B-hat Transformers 部署调用
在autodl平台中租一个3090等24G显存的显卡机器,如下图所示镜像选择PyTorch–>2.0.0–>3.8(ubuntu20.04)–>11.8接下来打开刚刚租用服务器的JupyterLab,并且打开其中的终端开始环境配置、模型下载和运行demo。pip换源和安装依赖包。
2024-04-18 06:34:11 255
原创 [大模型]MiniCPM-2B-chat WebDemo部署
MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型,主体语言模型 MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量。经过 SFT 后,MiniCPM 在公开综合性评测集上,MiniCPM 与 Mistral-7B相近(中文、数学、代码能力更优),整体性能超越 Llama2-13B、MPT-30B、Falcon-40B 等模型。
2024-04-18 06:32:42 760
原创 [大模型]MiniCPM-2B-chat transformers 部署调用
MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型,主体语言模型 MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量。经过 SFT 后,MiniCPM 在公开综合性评测集上,MiniCPM 与 Mistral-7B相近(中文、数学、代码能力更优),整体性能超越 Llama2-13B、MPT-30B、Falcon-40B 等模型。
2024-04-18 06:29:34 591
原创 [大模型]MiniCPM-2B-chat FastApi 部署调用
MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型,主体语言模型 MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量。经过 SFT 后,MiniCPM 在公开综合性评测集上,MiniCPM 与 Mistral-7B相近(中文、数学、代码能力更优),整体性能超越 Llama2-13B、MPT-30B、Falcon-40B 等模型。
2024-04-17 07:28:39 603 1
原创 [大模型]InternLM2-7B-chat Xtuner Qlora 微调
XTuner 训练多轮对话模型时,采取了一种更加充分高效的方法,如下图所示。我们将多轮对话进行拼接,之后输入模型,并行计算每个位置的 loss,而只有 Output 部分的 loss 参与回传。[{",},",},",},",},",},",}]数据集中的 “conversation” 键对应的值是一个列表,用于保存每一轮对话的指令和实际回答(GroundTruth)。
2024-04-17 07:25:20 862
原创 [大模型]InternLM2-7B-chat WebDemo 部署
InternLM2 ,即书生·浦语大模型第二代,开源了面向实用场景的70亿参数基础模型与对话模型 (InternLM2-Chat-7B)。
2024-04-17 07:23:12 514
原创 [大模型]InternLM2-7B-chat langchain 接入
InternLM2 ,即书生·浦语大模型第二代,开源了面向实用场景的70亿参数基础模型与对话模型 (InternLM2-Chat-7B)。
2024-04-17 07:21:15 595
原创 [python][gradio]密码验证
在首次打开网页前,可以设置账户密码。比如auth参数为(账户,密码)的元组数据。这种模式下不能够使用queue函数。如果想设置更为复杂的账户密码和密码提示,可以通过函数设置校验规则。
2024-04-16 09:44:59 329
原创 [python][gradio]chatbot控件用法
chatbot模块是Gradio中的一个组件,用于展示聊天机器人的输出,包括用户提交的消息和机器人的回复。它支持一些Markdown语法,包括粗体、斜体、代码和图片等。Chatbot模块的输入不接受用户输入,而是通过函数返回的列表来设置聊天内容。返回的列表应包含多个内部列表,每个内部列表包含两个元素:用户消息和机器人回复。消息可以是字符串、元组或None。如果消息是字符串,可以包含Markdown格式的文本。如果消息是元组,应包含文件路径和可选的替代文本。值为None的消息将不会显示在聊天界面上。
2024-04-16 09:42:02 363
原创 [大模型]基于 InternLM 和 LangChain 搭建知识库助手
首先在AutoDL上租一台显卡驱动支持11.7以上的双卡3090机器.在选择镜像是选择Miniconda-->conda3-->–>11.6打开中的终端,首先运行以下命令安装接下来运行以下命令,安装gradio等依赖包。请严格安装以下版本安装!
2024-04-16 08:15:19 441
原创 [大模型]InternLM2-7B-chat FastAPI 部署
首先在AutoDL上租一台显卡驱动支持11.7以上的双卡3090机器.在选择镜像是选择Miniconda-->conda3-->–>11.6打开中的终端,首先运行以下命令安装接下来运行以下命令,安装gradio等依赖包。请严格安装以下版本安装!
2024-04-16 08:14:30 294
原创 [大模型]浦语灵笔图文理解&创作
首先在AutoDL上租一台显卡驱动支持11.7以上的双卡3090机器.在选择镜像是选择Miniconda-->conda3-->–>11.6打开中的终端,首先运行以下命令安装接下来运行以下命令,安装gradio等依赖包。请严格安装以下版本安装!
2024-04-16 08:13:28 209
原创 [大模型]Lagent+InternLM-Chat-7B-V1.1
选择和第一个InternLM一样的AutoDL镜像环境,运行以下命令安装依赖,如果上一个已经配置好环境不需要重复安装.
2024-04-16 08:12:26 237
原创 [大模型]InternLM-Chat-7B 对话 Web
在平台中租一个3090等24G显存的显卡机器,如下图所示镜像选择PyTorch–>1.11.0–>–>11.3接下来打开刚刚租用服务器的JupyterLab,并且打开其中的终端开始环境配置、模型下载和运行demo。pip换源和安装依赖包。
2024-04-16 08:11:39 290
原创 [大模型]internLM-Chat-7B FastApi 部署调用
在平台中租一个3090等24G显存的显卡机器,如下图所示镜像选择PyTorch–>1.11.0–>–>11.3接下来打开刚刚租用服务器的JupyterLab,并且打开其中的终端开始环境配置、模型下载和运行demo。pip换源和安装依赖包。
2024-04-16 08:10:01 377
原创 [大模型]InternLM-Chat-7B Transformers 部署调用
粘贴代码后记得保存文件,上面的代码有比较详细的注释,大家如有不理解的地方,欢迎提出issue。(魔塔社区)中的snapshot_download函数下载模型,第一个参数为模型名称,参数。平台中租一个3090等24G显存的显卡机器,如下图所示镜像选择。执行下载,模型大小为14GB,下载模型大概需要10~20分钟。粘贴代码后记得保存文件(Ctrl+S),如下图所示。,并且打开其中的终端开始环境配置、模型下载和运行。保存后返回终端界面,运行。文件并在其中输入以下内容。在终端输入以下命令启动。
2024-04-16 08:09:01 247
原创 [python]prophet运行报错NameError: name ‘go‘ is not defined
最近在学习fbprophet时,按照安装步骤,搭建好环境之后,使用官方教程进行学习。在执行到下面这句时报错。如果已经安装plotly,这里就不需要安装了。
2024-04-16 08:06:52 113
原创 关于下载EsayOCR模型总是连接中断报错
下载好模型之后就需要解压文件,然后把.pth文件放到C:\Users\你的用户名\.EasyOCR\。因为网络问题,自动下载总是失败报错,所以只好去网上手动下载训练好的模型。文件下,就可以正常使用啦。
2024-04-15 17:01:49 144
原创 [大模型]DeepSeek-MoE-16b-chat Transformers 部署调用
DeepSeek MoE目前推出的版本参数量为160亿,实际激活参数量大约是28亿。与自家的7B密集模型相比,二者在19个数据集上的表现各有胜负,但整体比较接近。而与同为密集模型的Llama 2-7B相比,DeepSeek MoE在数学、代码等方面还体现出来明显的优势。但两种密集模型的计算量都超过了180TFLOPs每4k token,DeepSeek MoE却只有74.4TFLOPs,只有两者的40%。
2024-04-15 07:57:08 444
道路路标交通标志检测数据集VOC+YOLO格式877张4类别.zip
2024-04-22
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人