自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(83)
  • 收藏
  • 关注

原创 液冷是大模型对算力需求的必然选择?|英伟达 GTC 2024六大亮点

在这个以高性能计算和大模型推动未来通用人工智能时代,算力已成为科技发展的隐形支柱。本文将重点探讨算力的演进,深入分析在不同领域中算力如何成为推动进步的基石;着眼于液冷如何突破算力瓶颈成为引领未来的先锋,对液冷散热的三种方式(冷板式、浸没式和喷淋式)做了详细的对比分析、成本测算和市场空间预测。并为您提供一份“实用教程”,指导如何将普通服务器改装为液冷服务器,以应对越来越复杂的计算需求。

2024-04-10 14:18:50 1023

原创 英伟达要小心了!爆火的Groq芯片能翻盘吗?AI推理速度「吊打」英伟达?

随着科技的飞速发展,人工智能公司Groq挑战了英伟达的王者地位,其AI芯片不仅展现出卓越的实力,还拥有巨大的潜力。Groq设计了一种独特的推理代币经济学模式,该模式背后牵动着众多因素,却也引发了深度思考:新的技术突破来自何处?中国该如何应对并抓住变革中的机遇?Groq成本如何评估?这些都是值得研究和思考的问题。

2024-03-08 09:55:13 857

原创 7万张H100打造的Open AI文生视频Sora功能原理详解|Sora注册全攻略

近日,OpenAI发布的基于Transformer架构的文生视频Sora,可谓是在AI圈掀起新的热潮。该模型具有强大的视频生成能力,可产生高达一分钟的高清视频,并且用户可以自由指定视频时间长度、分辨率和宽高比。据OpenAI的观点,Sora的诞生可能预示着物理世界通用模拟器的重大突破。

2024-02-29 12:08:02 1313

原创 CES 2024的亮点仅仅聚焦AI深度赋能和产业创新吗?| DALL-E 3、Stable Diffusion等20+ 图像生成模型综述

CES作为颇具影响力的科技展览,展示芯片硬件到终端应用的全方位科技成果,涉及AI、VR、消费电子、汽车电子和智能家居等领域,标志着未来科技的方向。一、AI PCAI PC作为本次盛会主角,集结全链条科技力量,包括芯片、系统和终端,预示着AI PC元年来临。戴尔、惠普、华硕、三星等知名厂商的AI PC产品势如破竹,在硬件提升、AI助手整合和性能优化方面展示出其领先地位。特别是大多数AI PC都增加AI专用启动键。英伟达、AMD、英特尔等核心元件制造商的最新AI PC芯片部署,使整体计算能力有了显著的提升。

2024-01-25 10:40:01 1360 1

原创 展望2024: 中国AI算力能否引爆高性能计算和大模型训练的新革命?

2023年是人工智能发展的重要转折年,企业正在从业务数字化迈向业务智能化。大模型的突破和生成式人工智能的兴起为企业实现产品和流程的革新提供了先进工具,引领产业迈入智能创新的新阶段。在这个新时代,企业不再仅关注如何增强智能化能力,而更加注重如何利用人工智能实现产品和流程的革新。

2024-01-05 10:09:33 1539

原创 AGI时代的奠基石:Agent+算力+大模型是构建AI未来的三驾马车吗?

AI Agent的训练离不开算力,服务器作为一个强大的计算中心,为AI Agent提供算力基础,支持其进行复杂计算和处理大规模数据的任务,包括模型训练、推理和处理大规模数据集。

2023-12-21 13:54:17 1437

原创 探索AIGC未来:CPU源码优化、多GPU编程与中国算力瓶颈与发展

近年来,AIGC的技术取得了长足的进步,其中最为重要的技术之一是基于源代码的CPU调优,可以有效地提高人工智能模型的训练速度和效率,从而加快了人工智能的应用进程。同时,多GPU编程技术也在不断发展,大大提高人工智能模型的计算能力,更好地满足实际应用的需求。本文将分析AIGC的最新进展,深入探讨以上话题,以及中国算力产业的瓶颈和趋势。

2023-12-08 12:27:21 1441 2

原创 马斯克星链与芯事:30亿美元炸出卫星互联网革命,GPU算力创无限可能

据最新消息,马斯克“千人上火星计划”又一次未能如愿。据不完全统计,他在星舰项目上投入至少30亿美元,总投入超过200亿人民币。然而,尽管投入巨大,星舰研发道路仍然充满坎坷。早在今年4月,运力超过150吨的“史上最强运力”火箭在发射后几分钟内就在夜空中崩裂解体。自4月首飞以来,SpaceX对星舰进行1000多次改进。在11月18日21点,星舰33台推进器完成检测,进入预发射状态。发射3分钟后,飞船与推进器成功分离,9分钟后按照预定程序关闭引擎。然而,就在SpaceX团队为这一重要里程碑庆祝时,二级火箭发生故障

2023-11-24 11:32:59 1022

原创 多GPU训练大型模型:资源分配与优化技巧 | 英伟达将推出面向中国的改良芯片HGX H20、L20 PCIe、L2 PCIe

在人工智能领域,大型模型因其强大的预测能力和泛化性能而备受瞩目。然而,随着模型规模的不断扩大,计算资源和训练时间成为制约其发展的重大挑战。特别是在英伟达禁令之后,中国AI计算行业面临前所未有的困境。为了解决这个问题,英伟达将针对中国市场推出新的AI芯片,以应对美国出口限制。本文将探讨如何在多个GPU上训练大型模型,并分析英伟达禁令对中国AI计算行业的影响。

2023-11-16 12:02:25 1238 7

原创 GPT-4 Turbo 发布 | 大模型训练的新时代:超算互联网的调度与调优

算力对训练模型的重要性日益凸显。随着大模型训练的流行,全球显卡和算力正在快速增长。算力后周期市场也在迅速崛起。其中“后”更多是指后服务市场,涵盖从显卡服务器到货IDC之后,形成稳定算力到输出稳定商业推理结果全过程。该过程主要涉及云化、调优、调度、部署、落地和数据管理等环节。

2023-11-09 09:38:41 1041

原创 一文详解多模态大模型发展及高频因子计算加速GPU算力 | 英伟达显卡被限,华为如何力挽狂澜?

近年来,全球范围内的芯片禁令不断升级,给许多企业和科研机构带来了很大的困扰,需要在技术层面进行创新和突破。一方面,可以探索使用国产芯片和其他不受限制的芯片来替代被禁用的芯片;另一方面,可以通过优化算法和架构等方法来降低对特定芯片的依赖程度。

2023-10-26 12:37:02 887

原创 高性能计算与多模态处理的探索之旅:英伟达GH200性能优化与GPT-4V的算力加速未来

随着人工智能技术的不断发展,多模态大模型成为越来越重要的发展趋势。GPT-4V(GPT-4 近日开放的视觉模态)大型多模型(LMMs)扩展大型语言模型(LLMs)以增强多感知技能(如视觉理解等)从而实现更强大的通用智能。本文着重对GPT-4V进行深入分析,以进一步深化对LMM的理解。在此本文分析核心是GPT-4V可以执行的任务,同时包含用于探测其能力质量和通用性的测试样本。

2023-10-19 11:29:15 844

原创 深度学习模型部署与优化:策略与实践;L40S与A100、H100的对比分析

随着生成式AI应用的迅猛发展,我们正处在前所未有的大爆发时代。在这个时代,深度学习模型的部署成为一个亟待解决的问题。尽管GPU在训练和推理中扮演着关键角色,但关于它在生成式AI领域的误解仍然存在。近期英伟达L40S GPU架构成为了热门话题,那么与A100和H100相比,L40S有哪些优势呢?

2023-10-06 11:37:27 768

原创 高性能计算环境下的深度学习异构集群建设与优化实践

★深度学习;模式识别;图像处理;人工智能建模;人工智能;深度学习算法;强化学习;神经网络;卷积神经网络;人工神经网络;VIBE算法;控制系统仿真;机器学习;高性能计算;数据挖掘;超算;ACL;算力;计算机视觉;PSU;Transformer;PLM;SLM;NLM;LLM;Galactica;OPT;OPT-IML;BLOOM;BLOOMZ;GLM;Reddit;H100;H800;A100;A800;MI200;MI250;LaMA;OpenAI;GQA;RMSNorm;SFT;RTX 4090;A600

2023-09-24 22:02:51 387

原创 【无标题】

stable;diffusion;SD;sadtalker;PC集群;PC Farm;PC农场;GPU集群;GAN;VAE;latent;AI绘图;AI文生图;文生图;图生图;虚拟数字人;数字人;PNDM;DDIM;U-Net;prompt;CLIP;diffusers;pipeline;i9-13900;i7-13700;i5 13400;i3 12100;i7 12700;i9 12900在当今的数字时代,人工智能正在逐步改变人们的生活和工作方式。

2023-09-17 21:09:20 698

原创 揭秘英伟达A100、A800、H100、H800 GPU如何实现高性能大模型的百倍训练加速

本文主要介绍大模型的内部运行原理、我国算力发展现状。大模型指具有巨大参数量的深度学习模型,如GPT-4。其通过在大规模数据集上进行训练,能够产生更加准确和有创造性的结果。大模型的内部运行原理包括输入数据的处理、多层神经网络计算和输出结果生成。这些模型通常由数十亿个参数组成,需要庞大的计算资源和高速的存储器来进行训练和推理。

2023-09-09 23:23:35 2143

原创 如何在SAM时代下打造高效的高性能计算大模型训练平台

学术界有多篇论文探讨SAM 的 ZSL 能力, 如《SAM.MD: Zero-shot medical image segmentation capabilities of the Segment Anything Model》测试 SAM 的 ZSL 效果,在图像分割任务中输入部分点和框作为 prompt 提示,结果显示:专家用户可以通过 SAM 实现大部分场景下的快速半自动分割。总的来说,SAM-Track是在SAM基础上的有意义的研究成果,为视频分割和跟踪领域的研究和应用带来了新的可能性。

2023-08-21 04:27:07 439

原创 英伟达 H100 vs. 苹果M2,大模型训练,哪款性价比更高?

训练和微调大型语言模型对于硬件资源的要求非常高。目前,主流的大模型训练硬件通常采用英特尔的CPU和英伟达的GPU。然而,最近苹果的M2 Ultra芯片和AMD的显卡进展给我们带来了一些新的希望。

2023-07-28 16:36:16 583

原创 CPU、GPU与算存互连的复杂比较与重要性分析

据科技部新一代人工智能发展研究中心发布的报告显示,我国已发布79个参数规模超过10亿的大模型,几乎形成了百模大战的局面。在大模型研发方面,中国14个省区市都在积极开展工作,其中北京拥有38个项目,广东拥有20个项目。

2023-07-06 12:32:01 703

原创 通往AGI之路:揭秘英伟达A100、A800、H800、V100在高性能计算与大模型训练中的霸主地位

一位AI从业者提到,他所在的公司曾考虑使用一家非NVIDIA的GPU厂商,对方的芯片和服务报价更低,也承诺提供更及时的支持,但他们最终判断,使用其他GPU会导致整体训练和开发成本高于使用NVIDIA,并且还需要承担结果的不确定性和花费更多的时间。因此,使用性能较低的GPU越多,计算力的损耗就越大。Transformer基于显著性的注意力机制为输入序列中的任何位置提供上下文信息,使得它具有强大的全局表征能力、高度并行性、位置关联操作不受限,通用性强,可扩展性强等优势,从而使得GPT模型具有优异的表现。

2023-06-29 12:10:48 4671 1

原创 突破边界:高性能计算引领LLM驶向通用人工智能AGI的创新纪元

ChatGPT的成功带动整个AIGC产业的发展,尤其是LLM(大型语言模型,大语言模型)、NLP、高性能计算和深度学习等领域。LLM的发展将为全球和中国AI芯片、AI服务器市场的增长提供强劲动力,据估算,LLM将为全球和中国AI服务器带来约891.2亿美元和338.2亿美元的市场空间。

2023-06-25 15:06:50 596

原创 研发为底、生态为径、AI为翼——全国一体化算力算网调度平台正式发布

研发实力是一家芯片设计公司的核心竞争力,英伟达从发展初期就重视研发生产力,以高投入换取高回报不断提升产品竞争力。2005 年,AMD 的研发费用为 11 亿美元,是英伟达的 3.2 倍左右。而到了 2022 年,英伟达的研发费用达到 73.4 亿美元,是 AMD 的 1.47 倍。

2023-06-15 16:01:42 1091

原创 2023北京智源大会亮点回顾 | 高性能计算、深度学习和大模型:打造通用人工智能AGI的金三角

北京智源大会中黄铁军表示,从“第一性原理”出发,通过构建一个完整的智能系统AGI,从原子到有机分子到神经系统、到身体,实现通用人工智能。这是一个大概需要20年时间才能实现的目标。分别包括大模型方向、具身方向,以及智源自己期望方向的进展。

2023-06-15 14:34:26 1244

原创 COMPUTEX2023|NVIDIA GRACE HOPPER为加速生成式AI而设计的超级芯片全面投产

5 月29 日,英伟达在 2023 台北电脑展大会推出了DGX GH200 AI超级计算机,这是配备256颗Grace Hopper超级芯片和NVIDIA NVLink交换机系统的尖端系统,具有1 exaflop性能和144TB共享内存。

2023-06-02 12:04:29 375

原创 AIGC和ChatGPT推进百度、阿里、腾讯、华为大模型技术创新

据艾媒咨询预测,2023 年中国 AIGC 核心市场规模将达 79.3 亿元,2028 年将达 2767.4 亿元。中国互联网的高度普及率,以及不断提升的企业数字化程度,为 AIGC 产业提供了优越的发展环境。

2023-05-25 15:37:29 2130

原创 ChatGPT与深度学习的完美融合:打造智能化推荐系统新时代

新技术如ChatGPT、LLM、AIGC等的兴起,使推荐系统拥有更强的学习和预测能力。然而,推荐算法仍然是深度学习推荐系统中不可或缺的关键技术。推荐算法和这些技术应相辅相成,相互补充。推荐算法中的冷启动问题、Explore & Exploit、流行度纠偏、打散重排等问题,都是ChatGPT等技术未考虑的。AutoRec、Deep Crossing、NeuralCF、PNN、Wide&Deep、NFM、AFM、DIEN等模型的引入,丰富了推荐算法的解决方案,使得推荐系统更具智能和个性化。未来,推荐算法和Cha

2023-05-19 16:17:51 658

原创 如何向大模型ChatGPT提出问题以获得优质回答:基于AIGC和深度学习的实践指南

ChatGPT是目前最先进的、可以生成类似人类文本的语言模型,但了解向ChatGPT提问的正确方式,以获得所期望的高质量答案,是至关重要的。此外,我们还介绍了几种高级提示技术,如零提示、单个提示和小样本提示、自一致性、种子词提示、知识生成提示、知识整合提示、多项选择提示、可解释的软提示、受控生成提示、问答提示、摘要提示、对话提示、对抗提示、聚类提示、强化学习提示、课程学习提示、情感分析提示、命名实体识别提示和文本分类提示。可解释的软提示是一种技术,它可以在提供一定灵活性的同时,控制模型生成的文本。

2023-05-11 15:55:18 2097

原创 一文读懂Stable Diffusion教程,搭载高性能PC集群,实现生成式AI应用

PC Farm、生成式AI和Stable Diffusion模型都是非常有用的工具和技术,可以帮助用户快速构建和管理计算机集群,生成高质量的数据和图像,提高模型的泛化能力和鲁棒性。

2023-05-01 09:11:33 1854

原创 高性能计算HPC照亮AIGC未来:PC集群+Stable Diffusion 打造极致游戏体验

随着计算能力和技术水平的不断提高,PC集群和Stable Diffusion集成在游戏行业中的应用将会更加广泛,可以为游戏开发者和分析师提供更多一流的工具和技术支持,从而推动整个游戏产业迎来新的发展机遇。

2023-04-20 14:13:03 968

原创 AIGC大模型时代下,该如何应用高性能计算PC集群打造游戏开发新模式?

PC集群解决方案是一种高性能、可扩展、可靠、低成本的计算系统。它可以应用于科学计算、金融分析、天气预报、医学研究等领域。实现PC集群解决方案需要考虑硬件配置、软件配置、网络配置、管理和维护等方面。

2023-04-13 11:58:18 691

原创 Stable Diffusion:一种新型的深度学习AIGC模型

随着生成型AI技术的能力提升,越来越多的注意力放在了通过AI模型提升研发效率上。业内比较火的AI模型有很多,比如画图神器Midjourney、用途多样的Stable Diffusion,以及OpenAI此前刚刚迭代的DALL-E 2。对于研发团队而言,尽管Midjourney功能强大且不需要本地安装,但它对于硬件性能的要求较高,甚至同一个指令每次得到的结果都不尽相同。相对而言,Stable Diffusion因具备功能多、开源、运行速度快,且能耗低内存占用小成为更理想的选择。

2023-04-07 12:03:51 1494

原创 如何构建可持续的ChatGPT高性能服务器端架构?

与之前的版本相比,GPT-4最大的改进是其多模态(multimodal)能力——它不仅能够阅读文字,还能识别图像。值得注意的是,虽然之前有消息称GPT-4拥有100万亿个参数,但OpenAI并没有证实这个数字。与其相比,OpenAI更强调GPT-4的多模态能力以及其在各种测试中的表现。

2023-03-23 15:00:35 3592

原创 【无标题】

人工智能技术的迅猛发展为中国带来了巨大的机遇和挑战。中国应该积极应对人工智能的发展趋势,加强技术研发和人才培养,推动人工智能技术的应用和创新,加强人工智能技术的监管和管理,以实现经济社会的可持续发展。

2023-03-23 14:50:31 1817

原创 两会代表热议采用ChatGPT指导论文写作:防范抄袭的探索与思考

通过ChatGPT,作者可以更好地了解相关研究文献和领域知识,更好地组织论文结构和内容,更好地检查论文的抄袭情况。当然,ChatGPT并不能完全取代作者自己的思考。

2023-03-16 17:59:20 10877

原创 数字中国建设整体布局规划,能给ChatGPT带来什么机会呢?

ChatGPT可以通过学习数字中国建设的整体布局规划,深入了解数字技术在国家战略和社会发展中的应用,从而提高对数字经济、数字社会、数字政府等领域的理解和认知,为未来发展提供更加全面和深入的思路和支持。

2023-03-07 11:30:11 2849

原创 东数西算下,液冷数据中心为何日趋重要?

液冷技术是数据中心优化的一个重要方向,也是未来数据中心技术发展的趋势之一。液冷服务器的应用可以帮助企业和机构提高数据中心的效率,降低能源成本,从而更好地应对数据处理方面的挑战。

2023-02-28 15:08:31 800

原创 大模型为什么是深度学习的未来?

与传统机器学习相比,深度学习是从数据中学习,而大模型则是通过使用大量的模型来训练数据。深度学习可以处理任何类型的数据,例如图片、文本等等;但是这些数据很难用机器完成。大模型可以训练更多类别、多个级别的模型,因此可以处理更广泛的类型。另外:在使用大模型时,可能需要一个更全面或复杂的数学和数值计算的支持。深度学习算法不需要像大模型那样训练大量数量的模型来学习特征之间的联系。深度学习算法是基于神经元的,而大模型是利用大量参数训练神经网络。本文从大模型与深度学习方面入手,解决大模型是否是深度学习的未来的问题。

2023-02-16 12:29:52 2021

原创 谷歌用Bard打响了Chat GPT的第一枪,百度版Chat GPT 何时出炉?

谷歌公布了Chat GPT的竞争对手Bard,一款人工智能聊天机器人工具。此外,百度计划在今年 3 月推出类似于 Chat GPT OpenAI 的 AI 聊天机器人服务。

2023-02-08 17:54:20 1239

原创 高密度 ARM 服务器如何引领“数智时代”发展,打通“智变质变”正循环

面向未来,华为将坚持围绕鲲鹏和昇腾,携手产业伙伴共建计算产业生态;坚持“硬件开 放、软件开源、使能伙伴和发展人才”,和产业伙伴共同构筑坚实的算力底座。 共建计算产业,共赢数智时代。

2023-02-02 17:38:13 1528

原创 如何理解高性能服务器的高性能、高并发?

作为国内品牌服务器厂商,蓝海大脑液冷GPU服务器拥有大规模并行处理能力和无与伦比的灵活性。它主要用于为计算密集型应用程序提供足够的处理能力。GPU的优势在于可以由CPU运行应用程序代码,同时图形处理单元(GPU)可以处理大规模并行架构的计算密集型任务。GPU服务器是遥感测绘、医药研发、生命科学和高性能计算的理想选择。

2023-01-15 21:12:15 1126

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除