- 博客(618)
- 资源 (10)
- 收藏
- 关注
原创 Linux运维入门教程(☆建议收藏☆)
在当下,Linux运维是每个企业都不能缺少的岗位,以服务为中心,以稳定、安全、高效为基本,可以确保公司的互联网业务能够7*24小时为用户提供高质量的服务,在企业或产品交付交付运行当中有着十分重要的地位和作用。.............................................
2022-07-12 09:33:19 13123 4
原创 Consul专题文章索引
Consul 简化了分布式环境中的服务的注册和发现流程,通过 HTTP 或者 DNS 接口发现。支持外部 SaaS 提供者等。
2018-03-06 19:25:32 2061
原创 AI辅助信息技术发展
随着人工智能技术的持续发展与突破,2024年AI辅助研发正成为科技界和工业界瞩目的焦点。从医药研发到汽车设计,从软件开发到材料科学,AI正逐渐渗透到研发的各个环节,变革着传统的研发模式。在这一背景下,AI辅助研发不仅提升了研发效率,降低了成本,更在某种程度上解决了复杂问题,推动了科技进步。2024年,随着AI技术的进一步成熟,AI辅助研发的趋势将更加明显,其潜力也将得到更广泛的挖掘和应用。
2024-03-15 22:59:50 349
转载 突破存储硬件瓶颈
随着存储速度越来越快,以及网络存储的兴起,这种设计逐渐成为了存储的瓶颈。另外,本地硬盘协议,以及网络协议,也都成为了提高性能的绊脚石。
2024-03-15 09:00:14 15
原创 从政府工作报告探计算机行业发展
政府工作报告作为政府工作的全面总结和未来规划,不仅反映了国家整体的发展态势,也为各行各业提供了发展的指引和参考。随着信息技术的快速发展,计算机行业已经成为推动经济社会发展的重要引擎之一。因此,从政府工作报告中探寻计算机行业的发展趋势、政策导向和未来机遇,对于行业内的企业和从业者来说具有重要的指导意义。
2024-03-15 00:03:11 342
原创 程序员如何选择职业赛道?
在探索程序员的职业赛道时,犹如踏上一段迷宫般的旅程。前端的美丽花园、后端的黑暗洞穴以及数据科学的神秘密室,每一个方向都充满了挑战与机遇。那么,如何在这个迷宫中找到属于自己的道路呢?
2024-03-13 17:58:05 572
原创 Sora爆火,多模态大模型背后的存算思考
随着OpenAI推出Sora,人工智能从文本到文本、文本到图片的生成模式,进阶到文生视频。其文本到视频的模型能够生成长达一分钟的视频,在保持视觉质量的同时并严格遵循用户的提示,使得“扔进一本小说,生成一部电影”的想法成为现实。OpenAI将这一创新描述为构建“物理世界的通用模拟器”,这不仅是一项技术突破,也是人工智能领域探索的又一里程碑。
2024-03-13 16:00:00 1661
原创 业界主流数据加速技术路线
计算存储分离已经成为云计算的一种发展趋势。在计算存储分离之前,普遍采用的是传统的计算存储相互融合的架构,但是这种架构存在一定的问题,比如在集群扩容的时候会面临计算能力和存储能力相互不匹配的问题。用户在某些情况下只需要扩容计算能力或者存储能力,而传统的融合架构不能满足用户的这种需求,进行单独的扩充计算或者存储能力;其次在缩容的时候可能会遇到人工干预,人工干预完后需要保证数据在多个节点中同步,而当有多个副本需要同步时候,可能会造成的数据丢失。而计算存储分离架构则可以很好的解决这些问题,使得用户只需要关心整个集群
2024-03-11 18:00:00 831
原创 阿里云数据湖存储加速套件JindoData
阿里云作为一家全球领先的云计算及人工智能科技公司,其产品EMR提供了相对方便可控的企业级大数据服务,作为EMR的核心,在底层存储也有突出的设计和优化,本文主要调研和阿里云EMR的存储核心产品能力。阿里云EMR在存储领域的核心组件涉及SmartData、JindoData、JindoFS、jindoFSx、OSS-HDFS、JindoCache等概念。本文不讨论阿里云盘古等底层存储系统的设计。
2024-03-11 16:11:31 1715
原创 论文导读:用DNA作为计算和数据存储的通用化学基质
生物计算有望解决传统硅基计算在分子诊断、数据存储和信息安全等领域的应用局限。由于高度的可编辑性和可预测性,DNA是首选的计算及信息存储的基质。在化学综述中,团队重点探讨了DNA计算,尤其是在神经网络和区室化DNA电路等方向的研究最近进展。作者还讨论了DNA数据存储中包括DNA编码数据的写入、读取、检索和合成后编辑的新进展。最后,团队提出DNA计算与DNA数据存储的结合为未来的重要方向,将对信息技术和分析诊断的发展带来重大意义。
2024-03-10 18:07:15 898
原创 论文导读:消费级大模型Yi (零一万物技术揭密)
Yi模型家族是一系列展示出强大多维能力的自然语言和多模态模型。Yi模型家族基于6B和34B预训练语言模型,然后我们将其扩展到聊天模型、20万长上下文模型、深度扩展模型和视觉-语言模型。
2024-03-10 17:54:58 844
原创 Pb量级超大容量光存储
中国科学院上海光学精密机械研究所(以下简称“上海光机所”)与上海理工大学等科研单位合作,在超大容量三维超分辨光存储研究中取得突破性进展。研究团队利用国际首创的双光束调控聚集诱导发光超分辨光存储技术,实验上首次在信息写入和读出均突破了衍射极限的限制,实现了点尺寸为54nm、道间距为70nm的超分辨数据存储,并完成了100层的多层记录,单盘等效容量达Pb量级。
2024-03-09 23:00:12 379
原创 存算一体成为突破算力瓶颈的关键技术?
在GPT-2之前的模型时代,GPU内存还能满足AI大模型的需求,近年来,随着Transformer模型的大规模发展和应用,模型大小每两年平均增长240倍,实际上GPT-3等大模型的参数增长已经超过了GPU内存的增长。基于存算一体超异构概念,亿铸科技提出了自己的技术畅想:若能把新型忆阻器技术(RRAM)、存算一体架构、芯粒技术(Chiplet)、3D封装等技术结合,将会实现更大的有效算力、放置更多的参数、实现更高的能效比、更好的软件兼容性、从而突破性能瓶颈,抬高AI大算力芯片的发展天花板。
2024-03-09 22:52:19 965
原创 突破性进展!“超级光盘”诞生!
存储容量是普通光盘上万倍、普通硬盘上百倍的“超级光盘”,在中国科学院上海光学精密机械研究所诞生。这对于我国在信息存储领域突破关键核心技术、实现数字经济的可持续发展具有重大意义。
2024-03-09 22:46:43 312
原创 数据中台开源技术栈:一图看懂全面的数据管理与应用架构
随着数字化时代的到来,数据管理和应用架构变得越来越重要。数据平台作为一个集中管理和利用数据的架构,为组织提供了促进数据驱动决策和业务创新的能力。本文通过一幅图表,将数据平台技术栈的组成部分清晰呈现,助您深入了解数据中台的全面数据管理与应用架构。
2024-03-08 08:59:05 1034
原创 HBM研究框架:突破“内存墙”,封装新突破
HBM突破“内存墙”,实现高带宽高容量,成为Al芯片最强辅助,我们认为HBM将持续迭代,1/0口数量以及单1/0口速率将逐渐提升,HBM3以及HBM3e逐渐成为Al服务器主流配置,且产品周期相对较长,单颗容量及配置颗数逐步增加,预计HBM4于2026年发布。2024年全球HBM市场有望超百亿美元,市场空间足,国产供应链加速配套。
2024-03-08 00:30:00 436
原创 大模型专题报告:百模渐欲迷人眼,AI应用繁花开
工业革命级的生产力工具。目前,ANI已经广泛应用,AGI处于研发阶段,大模型是实现AGI的重要路径。AI大模型通过预先在海量数据上进行大规模训练,而后能通过微调 以适应一系列下游任务的通用人工智能模型。在“大数据+大算力+强算法”的加持下,进一步通过“提示+指令微调+人类反馈”方式,实现一个模型应用在很多不同领域。
2024-03-07 08:48:46 967
原创 存储专题系列一:新应用发轫,存力升级大势所趋
存储的下游应用过去以手机、PC和服务器为主,以手机、PC为例的消费电子自去年以来需求持续低迷,至今复苏需求仍不明朗,而人工智能和汽车电子作为新兴应用方兴未艾,激发大量增量需求。
2024-03-07 00:30:00 367
原创 华金证券2024:以“芯”助先进算法,以“算”驱万物智能
大模型技术所带来的突破以及商业化前景促使全球进 入AI竞赛,其中,美国在AI领域依旧担当着创新者和引领者的身份。大模型的发展依托于强大 的算法、庞大的数据量以及巨大的算力支撑,当下大模型逐步从单模态走向多模态,对于以英 伟达GPU为代表的算力需求快速爆发,全球范围内算力芯片的供需缺口一定程度上降低了多模态 大模型的发展速度,但依旧无法阻止AI技术向前演进以及商业化逐步落地,因此而对国内外算 力产业链带来了巨大的发展机遇。
2024-03-06 09:25:07 327
原创 中航证券2024 AI智算时代已至,算力芯片加速升级
智算中心的发展基于最新人工智能理论和领先的人工智能计算架构,当前算法模型的发展趋势以Al大模型为代表,算力技术与算法模型是其中的核心关键,算力技术以Al芯片、Al服务器、Al集群为载体。
2024-03-06 09:08:19 933
原创 论文导读:万卡集群训练大模型(by字节跳动)
字节跳动提出了万卡集群大模型训练架构MegaScale,并在12288个GPU上训练一个175B LLM模型时,用MegaScale实现了55.2%的MFU,比Megatron-LM提高了1.34倍;提供了万卡集群训练大模型的踩坑经验;证实了强大完备的训练基础设施(包含各种各样的诊断工具、监测工具、可视化工具等)对高效、稳定训练LLM至关重要;
2024-03-05 17:28:34 2495
原创 AI芯片行业深度:发展现状、竞争格局、市场空间及相关公司深度梳理
从AIGC产业链出发了解AI芯片在产业链中的地位及作用,分析不同类别的AI芯片的作用及特性都有哪些,我国AI芯片行业现状及竞争格局是怎样的,目前全球AI芯片的四大技术路线都有哪些?chatGPT及“文心一言”的出现对于AI芯片市场又怎样的影响,市场空间有多大,相关公司都有哪些,未来有怎样的发展趋势?
2024-03-05 17:13:24 1480
原创 ChatGPT带火的HBM是什么?
HBM(High Bandwidth Memory)即高带宽存储器,是基于硅通孔(TSV)和微凸点(Microbump)技术将多个DRAMdie和Logicdie堆叠而成的具有三维结构的存储产品。
2024-02-26 10:49:56 1583
原创 从ChatGPT到Sora,来了解大模型训练中的存储
清华大学舒继武团队分析了大模型训练的存储挑战,指出大模型训练的存储需求大,且具有独特的计算模式、访存模式、数据特征,这使得针对互联网、大数据等应用的传统存储技术在处理大模型训练任务时效率低下,且容错开销大;分别阐述了针对大模型训练的3类存储加速技术与2类存储容错技术;并进行了总结和展望。
2024-02-24 23:22:19 1605
原创 OpenAI Sora模型,官方技术文档翻译
本技术报告的重点是(1)将所有类型的视觉数据转化为统一表示,从而能够大规模训练生成模型的方法;以及(2)对Sora的能力和局限性的定性评估。
2024-02-23 01:00:00 1099
原创 Groq大模型推理芯片每秒500tokens超越GPU?
Groq的处理器是LPU(Language Processing Unit,语言处理单元),可以为诸如AI语言应用程序(LLM)等提供最快的推理速度。取胜的核心技术是Groq首创的LPU技术。
2024-02-23 00:30:00 1654
转载 聊透 GPU 通信技术——GPU Direct、NVLink、RDMA
最近人工智能大火,AI 应用所涉及的技术能力包括语音、图像、视频、NLP 等多方面,而这些都需要强大的计算资源支持。AI 技术对算力的需求是非常庞大的,虽然 GPU 的计算能力在持续提升,但是对于 AI 来说,单卡的计算能力就算再强,也是有极限的,这就需要多 GPU 组合。而 GPU 多卡的组合,主要分为单个服务器多张 GPU 卡和多个服务器,每个服务器多张卡这两种情况,无论是单机多卡还是多机多卡,GPU 之间需要有超强的通信支持。接下来,我们就来聊聊 GPU 通信技术。
2024-02-22 11:32:28 94
转载 中金:从OpenAI Sora看视频生成模型技术进展
延续DiTs架构,Sora实现高质量长视频生成。根据技术报告,Sora延续DiTs架构,随训练计算量提升而展现出显著的生成能力提升(Scalable)。
2024-02-22 10:01:41 60
原创 存内计算的主流技术方案
存内计算直接使用内存单元做计算,主要利用电阻和电流电压的物理关系表达运算过程。存内计算依赖于新型的非易失性存储器,如 ReRAM和 PCM 等。
2024-02-22 01:30:00 1729
原创 近数据计算的主流技术方案
近数据计算中逻辑层的设计较为灵活,可以针对不同系统的需求设计通用的处理器或者专用的加速器。在设计针对通用应用的近数据计算系统时,由于放到内存端的通用处理器一般性能较弱,需要考虑自动化地分割应用程序的计算部分,把能从近数据计算中获益的部分放到内存中处理.在设计针对特定类型应用的近数据计算系统时,需要仔细分析应用特点,抽取算子,设计对应的数据流. 除了逻辑层的设计,近数据计算系统结构设计还需要考虑:各个内存块之间的连接方式,包括通信方式和数据一致性协议、数据映射策略、与现有系统集成方式、软硬件接口设计。
2024-02-22 00:30:00 1780
原创 内存计算研究进展- 针对图计算的近数据计算架构
针对图计算的近数据计算架构的代表性工作有: Seoul National University的 Tesseract和 Georgia Institute of Technology 的 GraphPIM,具体如下。
2024-02-21 00:45:00 363
原创 内存计算:起源、架构、挑战与机遇
在数据爆炸时代,内存计算技术为解决传统冯•诺依曼架构中总线拥堵问题以及片上片下数据传输能耗过高问题提供了解决方案.内存计算技术得益于新型3D 堆叠技术和非易失存储技术的发展。
2024-02-21 00:45:00 963
原创 内存计算研究进展-针对机器学习的近数据计算架构
针对机器学习的近数据计算架构代表性工作有: Georgia Institute of Technology的BSSync (bounded staled sync) 和 Neurocube,Advanced Micro Devices 的 CoML,具体如下。
2024-02-21 00:15:00 1852 1
转载 智能计算: 最新进展、挑战和未来(九名院士、12位专家)
计算是人类文明发展的一个重要推动力。近年来,我们见证了智能计算的出现,在大数据、人工智能和物联网时代,智能计算作为一种新的计算范式,正在重塑传统计算,以新的计算理论、架构、方法、系统和应用推动数字革命。
2024-02-20 11:05:55 169
原创 内存计算研究进展-通用的近数据计算架构
TOM的提出是为了解决大数据时代GPU与主存之间带宽小的问题,除了通过编译器静态分析代码块并选择合适的代码块放到内存计算中执行之外,TOM还分析预测了哪些数据会被放到内存计算中的代码块访问,并将这些数据放在相应代码块执行的NDC cube中,以此来减少各个NDC cube之间的通信. TOM中的代码分析和数据映射都对上层透明,程序员可非常方便地使用内存计算.实验显示,TOM平均能提高GPU的主流应用30%的性能。实验表明,在22nm的工艺下,TOP-PIM可以减少76%的能耗,且仅带来27%的性能损失。
2024-02-20 04:15:00 1641
原创 内存计算研究进展-技术架构
内存计算技术是一个宏观的概念,是将计算能力集成到内存中的技术统称。集成了内存计算技术的计算机系统不仅能直接在内存中执行部分计算,还能支持传统以CPU为核心的应用程序的执行。,常用于嵌入式设备中,针对一类特定的应用设计,不能处理其他应用程序。内存计算包括两大类:近数据计算和存内计算。两者的关系如图4 所示,它们在形式上不同,但是在特定场景下可以融合设计。,而,计算和存储紧耦合.下面将从硬件结构和所支持的计算操作两个方面具体介绍近数据计算和存内计算相关技术。
2024-02-20 00:15:00 1579
原创 内存计算研究进展-提出与兴起
数据驱动的应用迅猛发展以及数据量指数级暴增驱动了内存计算的发展,并且新型存储器件的快速发展为内存计算提供了技术保障。因此,内存计算在2010年后兴起。
2024-02-19 12:20:30 950
原创 初识eBPF
eBPF 是一项革命性的技术,它能在操作系统内核中运行沙箱程序。被用于安全并有效地扩展内核的能力而无需修改内核代码或者加载内核模块。
2024-02-19 09:37:19 1686
大模型专题报告:百模渐欲迷人眼,AI应用繁花开
2024-03-07
存储专题系列一:新应用发轫,存力升级大势所趋
2024-03-06
AI智算时代:算力芯片加速升级
2024-03-06
翻译分布式文件系统:BeeGFS vs GlusterFS.pdf
2023-08-16
2023东北证券-计算机行业AI深度报告,向量数据库:AI时代的Killer+App-230508.pdf
2023-08-15
计算机:CPU生态价值与机遇研究.pdf
2023-08-15
大数据+物联网智慧水务解决方案.pdf
2023-08-15
2022中国图计算技术及应用发展研究报告.pdf
2023-08-15
金融行业信创云基础架构方案评估.pdf
2023-08-15
计算产业发展简史及趋势
2023-08-15
2021全球加密技术发展趋势研究
2023-08-15
2022 分布式存储市场调研报告 + 分布式存储
2022-05-18
下一代数据存储技术研究报告(2021年)
2021-08-01
fio-2.14.tar.bz2
2017-05-03
Linux中LCD设备驱动
2013-11-06
UBIFS文件系统介绍
2013-10-17
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人