自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

叶梓老师AI人工智能前沿分享

人工智能系列课程:机器学习深度学习机器学习强化学习自然语言处理计算机视觉

  • 博客(636)
  • 资源 (1)
  • 收藏
  • 关注

原创 人工智能讲师AI讲师大模型讲师叶梓介绍及大语言模型技术原理与实践提纲

本课程旨在通过实际案例展示ChatGPT、ChatGLM、Langchain等相关大语言模型的具体应用场景及实践技巧,从而帮助学习者深入了解和掌握大语言模型的概念和更广泛的应用,深入理解其工作方式,包括其基础知识、核心算法和实现方式,掌握其在各行业领域中的应用情况等。该课程适合于对大语言模型技术感兴趣的学习者,从初学者到进阶者均可受益。经过本课程的学习,获得相关技术实战经验,通过一系列的实践案例提高利用大模型解决实际问题能力。

2024-02-21 16:30:38 1279

原创 AI人工智能大模型讲师叶梓《基于人工智能的内容生成(AIGC)理论与实践》培训提纲

本课程介绍了chatGPT相关模型的具体案例实践,通过实操更好的掌握chatGPT的概念与应用场景,可以作为chatGPT领域学习者的入门到进阶级课程。1、指示学习(Instruct Learning)6、Batch Norm与Layer Norm。2、Transformer中的block。1、你需要的仅仅是“注意力”7、chatGPT的应用领域。8、chatGPT引发的讨论。5、位置编码(抛弃RNN)4、从人类反馈中RL的思路。3、有监督微调(SFT)5、奖励建模(RM)

2023-12-30 13:26:21 795

原创 人工智能AIGC培训讲师叶梓介绍及AI强化学习培训提纲

强化学习是当前最热门的研究方向之一,广泛应用于机器人学、电子竞技等领域。本课程系统性的介绍了强化学习(深度强化学习)的基本理论和关键算法,包括:马尔科夫决策过程、动态规划法、蒙特卡罗法、时间差分法、值函数逼近法,策略梯度法等;以及该领域的最新前沿发展,包括:DQN及其变种、信赖域系方法、Actor-Critic类方法、多Agent深度强化学习等;同时也介绍大量的实际案例,包括深度强化学习中最著名的工程应用:Alpha Go。

2023-12-06 14:16:05 266

原创 人工智能ai大模型培训师专家讲师叶梓介绍及ChatGPT提纲

叶梓,长期负责城市信息化智能平台的建设工作,牵头多个省级、市级智能化信息系统的建设,主持设计并搭建多个行业省级、市级大数据平台。参与国家级行业人工智能课题研究,牵头市级行业人工智能课题(智能化医疗产品、智能化场景应用)研究。带领团队在相关行业领域研发多款人工智能创新产品,成功落地多项大数据、人工智能前沿项目。参与国家级、省级大数据技术标准的制定,曾获省部级以上的科技创新一等奖。8、chatGPT的应用领域。9、chatGPT引发的讨论。2、 GPT的内部架构。5、 GPT的应用场景。6、奖励建模(RM)

2023-03-25 16:42:58 2366

原创 AI工智能讲师叶梓培训简历及提纲:AI人工智能之基于人工智能的内容生成(AIGC)简历提纲

AIGC并不是一个全新的概念,它最早出现在深度学习模型“对抗生成网络”GAN的应用中,被誉为“21世纪最强大的算法模型之一” ,后续发展起来的扩散模型,以及自然语言领域BERT、GPT等都是典型的AIGC模型。

2023-02-05 20:25:56 990

原创 人工智能讲师自然语言处理培训讲师介绍叶梓:人工智能之最新自然语言处理技术与实战NLP讲师简历

人工智能讲师叶梓九月新课推出:《人工智能之最新自然语言处理技术与实战》,助理QQ:526346584人工智能之最新自然语言处理技术与实战l课程介绍:自然语言处理(简称NLP)是计算机科学和人工智能研究的一个重要方向,研究计算机和理解和运用人类语言进行交互的问题,它是集语言学、机器学习、统计学、大数据于一体的综合学科。本课程主要介绍了NLP中的常用知识点:分词、词法分析、句法分析、向量化方法、经典的NLP机器学习算法,还重点介绍了NLP中最近两年来基于大规模语料预训练的词嵌入模...

2020-09-04 09:32:09 479

原创 AI讲师人工智能讲师机器学习讲师深度学习讲师叶梓简历(机器学习深度学习强化学习人工智能老师)

上海交通大学计算机专业博士毕业,在校期间的主研方向为数据挖掘、机器学习、AI人工智能。毕业后即进入某大型软件上市公司从事大数据、人工智能等技术相关工作。在大数据应用、人工智能等方面都有着丰富的经验。点击博客个人主页查看更多详情案例及课程:主要课程:《数据分析与数据挖掘导论》 《机器学习与深度学习》 《基于深度学习的计算机视觉》 《强化学习与深度强化学习》 《强化学习》 《...

2019-09-24 16:45:23 1885

原创 大数据人工智能培训讲师老师:叶梓简介 人工智能讲师ai讲师大数据讲师人工智能老师

上海交通大学计算机专业博士毕业,在校期间的主研方向为数据挖掘、机器学习、人工智能。毕业后即进入某大型软件上市公司从事大数据、人工智能等技术相关工作,曾先后作为技术经理或总工程师,负责大型信息平台、市级信息平台的建设工作,并参与省级信息平台的建设;主持制定了包括多份信息化工程标准。在大数据应用、人工智能等方面都有着丰富的经验。个人助理QQ:526346584案例及课程:主要课程:《数据分...

2019-09-11 09:45:18 10915 1

原创 叶梓老师 人工智能兼职讲师之深度学习《计算机视觉的深度学习实践》

人工智能的时代,深度学习这个热点是每个程序员必须了解的内容。近年来深度学习研究得到了充分的发展,但系统的课程少之又少,能够理论联系实际,适合初学程序员学习的课程更是凤毛麟角。叶梓老师,拥有多年的企业实践经验,结合实践在小象学院平台直播《计算机视觉的深度学习实践》14堂课细说深度学习之计算机视觉第一讲 课程概述第二讲 图像预处理第三讲 图像特征提取第四讲 未有深度学习之...

2018-12-27 10:42:31 1934 6

原创 人工智能兼职讲师ai讲师强化学习讲师叶梓老师《强化学习》课程介绍及提纲

2018年11月29日,叶梓老师在线直播课《强化学习》第一期正式开班。这是人工智能之机器学习中除深度学习之外另一门经典课程,是AI必修之课。人工智能的重要领域——强化学习当前的机器学习算法可以分为3种:有监督的学习(Supervised Learning)、无监督的学习(Unsupervised Learning)和强化学习(Reinforcement Learning)...

2018-12-27 10:39:34 994 1

原创 AI兼职讲师人工智能兼职讲师叶梓老师 机器学习与深度学习培训提纲

课程时长】6天(6小时/天)【课程简介】人工智能的浪潮正在席卷全球,各种培训课程应运而生,但真正能让学员系统、全面掌握人工智能深度学习知识点,并且能学以致用的实战课程并不多见。本课程包含机器学习、深度学习的重要概念及常用算法(决策树、关联规则、聚类、贝叶斯网络、神经网络、支持向量机、隐马尔科夫模型、遗传算法、CNN、RNN、GAN等),以及人工智能领域当前的热点。通过6天的系...

2018-12-27 10:36:10 939 1

原创 叶梓老师 大数据机器学习培训提纲

(一)统计分析、数据仓库与可视化表达1、 综述(大数据、人工智能、数据挖掘、机器学习:这些词的确切含义)2、 假设检验:“小数据”时代是怎么玩的?3、 “回归”是数据挖掘算法吗?4、 度量、指标与维度5、 星型模型与雪花模型6、 下钻与上卷7、 数据仓库的应用案例8、 图表该怎么画才对?(二)大数据相关技术综述1、 hadoop:HD...

2018-12-27 10:34:27 411 1

原创 叶梓老师 数据分析与数据挖掘-培训提纲

第一天上午:统计分析原理1、 统计基础2、 R语言基础知识3、 R语言数据类型4、 描述性统计5、 随机变量与概率密度分布6、 定性相关分析7、 定量相关分析8、 回归分析:多元线性回归9、 回归分析:logistics回归10、 R语言实现的回归分析第一天下午:统计分析与数据仓库1、 方差分析:单...

2018-12-27 10:30:11 525

原创 深度学习突破:LLaMA-MoE模型的高效训练策略

在人工智能领域,大模型(LLM)的崛起带来了前所未有的进步,但随之而来的是巨大的计算资源需求。为了解决这一问题,Mixture-of-Expert(MoE)模型架构应运而生,而LLaMA-MoE正是这一架构下的重要代表。LLaMA-MoE是一种基于LLaMA系列和SlimPajama的MoE模型,它通过将LLaMA的前馈网络(FFNs)划分为稀疏专家,并为每层专家插入top-K个门,从而显著减小模型大小,降低训练成本。这种方法不仅保持了模型的语言能力,同时实现了输入的高效处理。

2024-04-26 21:03:34 219

原创 大模型咨询培训老师叶梓:利用知识图谱和Llama-Index增强大模型应用

大模型(LLMs)在自然语言处理领域取得了显著成就,但它们有时会产生不准确或不一致的信息,这种现象被称为“幻觉”。为了提高LLMs的准确性和可靠性,可以借助外部知识源,如知识图谱。那么我们如何通过Llama-Index实现知识图谱与LLMs的有效交互,从而提升应用性能呢?

2024-04-26 15:59:42 376

转载 以数据为中心的大模型落地方法论与实践

比如,Text to SQL产生的SQL语句是让大模型来执行还是让传统工具来执行,也是个问题,”现在常见的大模型演示中,人们都是上传一个数据集,让大模型去分析,但这其实跟真实场景差距太远了。针对第二种任务,则采用全参微调的方式,对硬件要求高,主要在于内存量,比如Llama 2 13B的全参微调至少需要一块80G内存的A800,Llama 2 7B则至少需要一块24G内存的RTX4090,才能完成训练,并且为防止过拟合,对数据集的要求也更高。总之,不同的钉子只能用不同的锤子,而每一把锤子都不便宜。

2024-04-25 15:58:18 13

原创 提示工程技术:解锁大模型潜能的12把钥匙

在人工智能的领域中,大语言模型(LLM)正变得越来越强大,它们在自然语言处理、图像识别、语音识别等多个领域展现出了巨大的潜力。然而,要充分发挥这些模型的能力,我们需要精心设计的提示(Prompt)来引导模型的输出。本文将介绍12种不同的提示工程技术,这些技术可以帮助我们更好地利用LLM,并在各种场景中实现更精准的应用。

2024-04-25 15:55:27 573

原创 优化大模型的解释性提示以提升文本推理性能:一种无监督数据驱动的方法

这一策略使得模型能够从更多的数据中学习,从而提高其在推理任务上的性能。这些进展展示了LLMs在自动推理和问题解决领域的潜力,同时也指出了未来研究的方向,如改进代理指标以更好地预测下游性能,以及探索在更广泛的任务和语言上的适用性。一个好的优化策略应该能够在合理的成本下,显著提高模型的性能,使得投入的资源能够得到最大的回报。他们的方法在四个不同的文本推理数据集上进行了测试,包括小学数学问题、常识问答、自然语言推理和策略问答,实验结果表明,他们的方法能够在这些任务上找到比初始种子解释平均准确度高出4%的解释。

2024-04-25 15:12:29 693

转载 105页PPT | 企业架构(业务架构、数据架构、应用架构、技术架构)设计实战手册

从企业架构专业分析的角度,企业架构设计包括业务架构、信息架构、应用架构和技术架构4个方面。“四面”指业务架构、信息架构、应用架构、技术架构4个关键要素,缺一不可。数字化转型涉及企业的方方面面,而架构蓝图是基于企业架构方法对数字化转型的顶层设计,从整体上给出企业转型的数字化全视图。企业架构(Enterprise Architecture,EA)是衔接战略与项目实施的桥梁,引入企业架构方法,可以对数字化转型愿景进行系统性的、分层分级的梳理和解释,以便企业上下在同一张蓝图上统一认识。

2024-04-25 14:41:50 6

转载 这么多Attention机制,看看你见过多少?

该模式的计算复杂度为,与输入序列长度线性相关,通常情况下。此外,作者通过对 query和 key 矩阵进行归一化来限制其幅度,使得归一化矩阵和的每一列为长度是的单位向量,并使得维的交叉协方差矩阵中的每个元素都在范围内。其中,是自底向上的结构,在残差单元之后多次使用Max-pooling来增加receptive field,而是自顶向下的部分,使用线性插值保持输出与输入的feature map大小相同。假设q和k的分量是均值为0、方差为1的独立随机变量,它们的点积()的均值为0,方差为(Key向量的维度)。

2024-04-25 14:37:28 2

转载 AAAI2024 | 分享10篇优秀论文,涉及图神经网络、大模型优化、表格分析等热门话题

我们在11个下游视觉数据集上进行了实验证明,本文方法在少样本场景中显著提高了现有多模态提示学习模型的性能,相较于16张图像的最先进方法,平均准确率提升了2.31%。本文在诸如链接预测和网络完成等各种下游任务中进行了定量评估,结果表明本文的建模框架能够有效跟踪潜在空间中节点的内在轨迹,捕捉不断演变的网络结构的基本特征。最终,本文收集了2249个查询-结果对和347个表格,使用三种不同的评估指标对五个最先进的模型进行评估,结果显示本文的基准在表格数据分析领域提出了相当大的挑战。

2024-04-24 21:20:22 26

原创 大模型检索召回系统:RAG技术的全面调查与未来展望

随着人工智能技术的飞速发展,大型语言模型(LLMs)在自然语言处理(NLP)领域取得了显著成就。然而,这些模型在处理特定领域或知识密集型任务时仍面临挑战,如产生错误信息或“幻觉”。为了克服这些难题,检索增强生成(Retrieval-Augmented Generation,简称RAG)技术应运而生,它通过整合外部数据库的知识来增强模型的生成能力,特别是在知识密集型任务中表现出色。

2024-04-24 17:10:38 653

原创 图大模型前沿技术介绍

图大模型(Graph Large Models,简称GLMs)是一个活跃的研究领域,它结合了图神经网络(GNNs)和大型语言模型(LLMs)的优势来处理图数据。

2024-04-24 16:43:35 327

原创 知识图谱嵌入领域的重要研究:编辑基于语言模型的知识图谱嵌入

作者们首先定义了两个关键的研究任务:EDIT和ADD。这两个任务分别针对知识图谱嵌入中的错误知识修正和新知识添加。EDIT任务关注于如何准确地纠正KG嵌入中已经存在的错误知识,而ADD任务则着眼于如何将新出现的知识有效地整合进已有的KG嵌入中。这两个任务的提出,为动态更新KG嵌入提供了明确的目标和方向。

2024-04-24 16:09:39 893

原创 检索增强生成(RAG)技术

随着大型语言模型(LLMs)在自然语言处理(NLP)领域的显著进步,它们在多个评估基准测试中显示出超越人类水平的语言和知识掌握能力。然而,这些模型在实际应用中也面临着一系列挑战,如制造事实、知识更新缓慢和答案缺乏透明度等问题。为了解决这些问题,研究者提出了检索增强生成(Retrieval-Augmented Generation,RAG)技术,它通过从外部知识库检索相关信息来辅助大型语言模型回答问题,已经被证明能显著提高回答的准确性。

2024-04-23 21:39:52 625

原创 “PowerInfer:消费级GPU上的高效大语言模型推理引擎“

PowerInfer的开源性质,加上其活跃的社区和不断更新的特性,使其成为一个在消费级硬件上部署和运行大型语言模型的强大工具。这种局部性表现为神经元激活的幂律分布,即少数热激活的神经元在多数情况下被频繁使用,而大多数冷激活的神经元则在特定输入下才被激活。推理中的高局部性,实现了快速且资源消耗低的模型推理,这一局部性主要体现在神经元激活的幂律分布上,即少数。量化,这有助于减少模型的存储占用和提高推理速度,进一步适应资源受限的设备。内存的需求,并且降低了两者之间的数据传输,提高了整体的计算效率。

2024-04-23 21:24:49 882

转载 大模型微调实践——Prefix tuning与P-tuning v2的原理、区别与代码解析最终章

回归传统的分类标签范式,而不是映射器。第二,缺少深度提示优化,在Prompt Tuning和P-tuning中,连续提示只被插入transformer第一层的输入embedding序列中,在接下来的transformer层中,插入连续提示的位置的embedding是由之前的transformer层计算出来的,这可能导致两个可能的优化挑战。在实验中,发现不同的理解任务通常用不同的提示长度来实现其最佳性能,这与 Prefix-Tuning 中的发现一致,不同的文本生成任务可能有不同的最佳提示长度。

2024-04-23 13:37:27 114

原创 秒懂图神经网络(GNN)

在这项任务中,GNN的目标是预测图中每个节点的类别标签。通过这种方式,GNN可以学习到图中的局部结构特征,这对于许多任务,如节点分类、图分类和链接预测等,都是非常重要的。GNN通过分析节点之间的交互模式和它们在图中的位置来预测潜在的联系,类似于根据一个人的朋友圈子来推测他可能结识的新朋友。例如,在社交网络中,人与人之间的友谊关系通过边来表示,每个个体(节点)的社交网络可能对个体的行为和特征产生影响。消息传递允许GNN捕捉图中的结构信息,因为节点的新状态不仅取决于自己的特征,还取决于其邻居的特征。

2024-04-23 13:31:29 573

原创 轻松了解深度学习的几大模型

这时,如果你有一个特别的记忆系统,能够让你记住长期的重要信息,同时更新短期的细节,那么这个案件对你来说就会容易得多。随着时间的推移,你不断改进你的作品,而你的对手也不断提高他的鉴别能力。在传统的RNN中,信息是单向传递的,随着时间的推移,早期的信息可能会逐渐丢失,导致网络难以捕捉长期依赖。生成器的任务是生成新的数据样本,比如图片、音频或文本,而判别器的任务是判断这些数据样本是真实的还是生成器生成的。在收缩路径中,网络逐步减小特征图的分辨率,同时增加特征图的通道数,这使得网络能够捕捉到图像的上下文信息。

2024-04-23 13:06:59 617

转载 微调方法大全,你必须了解

以下是您可以针对您的用例微调LLM的不同方法:监督式微调 - 这是最常见的方法,您需要一个任务特定的标签数据集。Llama-2的LoRa微调显示出与全参数微调几乎相当的性能,甚至在生成SQL查询或基于文本的功能表示等专业任务中超越了GPT-4。基于强化学习的微调:强化学习算法,如近端策略优化(PPO),用于优化策略,在这种情况下是用于生成令牌序列的模型的参数化。尽管这些模型刚开始可能不如GPT-4表现出色,但有不同的技术可以应用于微调它们,使它们在特定用例中与大型模型的性能相匹配。

2024-04-23 12:49:53 11

转载 超强!深度学习Top10算法!

生成器的任务是生成假数据,而判别器的任务是判断输入的数据是来自真实数据集还是生成器生成的假数据。GAN的训练过程是一个优化问题。在每个训练步骤中,首先使用当前参数下的生成器生成假数据,然后使用判别器判断这些数据是真实的还是生成的。GAN由蒙提霍尔问题(一种生成模型与判别模型组合的问题)演变而来,但与蒙提霍尔问题不同,GAN不强调逼近某些概率分布或生成某种样本,而是直接使用生成模型与判别模型进行对抗。在训练过程中,模型尝试学习到每个词的向量表示,使得在给定上下文中出现的词与目标词的向量表示尽可能接近。

2024-04-23 06:38:56 24

原创 构建云原生湖仓:Apache Iceberg与Amoro的结合实践

随着大数据技术的快速发展,企业对数据的处理和分析需求日益增长。传统的数据仓库已逐渐无法满足现代业务对数据多样性和实时性的要求,这促使了数据湖和数据仓库的融合,即湖仓一体架构的诞生。在云原生技术的推动下,构建云原生湖仓成为企业提升数据处理能力的重要途径。本文将探讨如何利用Apache Iceberg和Amoro在云原生环境下构建高效的湖仓一体解决方案。Apache Iceberg与云原生Apache Iceberg是一个开源的表格式,专为大规模分析型数据而设计。

2024-04-22 21:45:25 1852

转载 openchat-3.5-1210:迄今为止最优秀的开源7B模型,支持中文

在这个方法中,我们考虑一个通用的非成对(或非排序)SFT训练数据,包括少量的专家数据和大量的次优数据。有趣的是,C-RLFT中的最优策略可以通过单阶段、无需强化学习的监督学习轻松解决,从而避免了昂贵的人类偏好标签收集。通过C-RLFT进行微调:我们将预训练的LLM视为类条件策略πθ(y|x, c),并使用类信息增强的参考策略πc而不是原始预训练的LLM π0对其进行正则化。类条件数据集和奖励:根据不同的数据来源(如GPT-4和GPT-3.5),为每个示例分配类标签,并构建类条件数据集Dc。

2024-04-22 21:22:21 39

原创 通过创新的MoE架构插件缓解大型语言模型的世界知识遗忘问题

LoRAMoE的核心思想是在微调阶段引入局部平衡约束损失(Localized balancing constraint),以协调模型中的多个专家(experts),确保一部分专家专注于下游任务,而另一部分专家则利用模型中存储的世界知识,从而避免知识遗忘。在推理阶段,路由器根据输入数据的类型和当前任务的需求,动态地为不同的专家分配权重,实现灵活的专家调用。通过上述设计,LoRAMoE能够在处理各种下游任务时,根据任务的需要合理地协调不同专家的工作,从而在保持世界知识的同时,提升模型在多个任务上的性能。

2024-04-22 13:34:48 1120

原创 探索数学语言模型的前沿进展——人工智能在数学教育和研究中的应用

数学一直被认为是科学的基石,对于推动技术进步和解决现实世界问题具有重要意义。然而,传统的数学问题解决方式正面临着数字化转型的挑战。MLMs的出现,预示着数学学习和研究方式的一次革命。MLMs,包括预训练语言模型(PLMs)和大规模语言模型(LLMs),已经成为数学问题解决领域的新星。这些模型通过在大量数学数据集上的预训练和微调,展示了在数学问题解决上的巨大潜力。预训练语言模型是通过在大量文本数据上进行预训练来构建的,目的是让模型学习语言的基本结构和语义。

2024-04-22 13:11:23 864

转载 如何将任何文本转换为图谱

source=post_page-----110844f22a1a--------------------------------[6] Pyvis是一个用于可视化网络的Python库: https://github.com/WestHealth/pyvis/tree/master#pyvis---a-python-library-for-visualizing-networks。记住,我们已经计算出了每条边的权重来确定边的粗细,每个节点的社区来确定它们的颜色,以及每个节点的度来确定它们的大小。

2024-04-22 12:44:04 30

原创 大模型培训老师叶梓:通过微调提升小型语言模型的复杂推理能力

在人工智能的快速发展中,复杂推理能力的提升一直是研究者们追求的目标。最近,一项发表在arXiv上的研究成果【1】,提出了一种创新的方法,即通过微调小型语言模型(LMs),并将其与大型语言模型(LLMs)的协作,以显著提升复杂推理能力。这一方法的核心在于利用大型教师模型的思维链(Chain-of-Thought,CoT)推理能力来指导小模型解决复杂任务。大型语言模型,如GPT-3,已经展示出在多步推理任务中的卓越性能。然而,这些模型的计算要求和推理成本非常庞大,这限制了它们在实际应用中的大规模部署。

2024-04-22 12:40:00 807

转载 数字化系统不好用的4个真相

0-100-1000是一个简单的流程再造的步骤,需要产品经理和业务人员一起参与,业务上给全信息,陈述规则,产品上贴近系统,延续业务目标,考虑到系统的限制和优势,去重新进行流程设计。而管理者的精力分配,来自于高层的关注方向,这就导致,数字化需要公司从上到下时时刻刻紧盯,成为了一个管理成本、执行成本极高的项目。有系统之前,沟通基本靠吼,对规则的弹性极高,没有规则可以现定,有规则可以通融,这是人和人之间的游戏。正如前文所言,线上的系统化是代码工程的产物,它规范,它非此即彼,它控制人的行为,它改动起来成本不小。

2024-04-21 16:36:14 22

原创 AI大模型老师叶梓:构建知识图谱,从文本到知识的智能转换

知识图谱,也称为语义网络,是一种通过图形结构表示实体及其关系的技术。实体可以是物体、事件、情况或概念,而关系则说明了这些实体之间的联系。知识图谱通常存储在图形数据库中,并可以被可视化为网络图,从而提供了一种直观的方式来探索和分析数据。

2024-04-21 16:27:11 719

原创 人工智能大模型培训老师叶梓 探索知识库问答中的查询图生成:处理多跳复杂问题的新方法

分阶段查询图生成方法的核心思想是将复杂问题分解为多个简单的子问题,并逐步构建查询图。起始实体识别:首先从问题中识别出一个主题实体,作为查询图的起点。核心关系路径识别:确定一个或多个与主题实体相关的核心关系路径,这些路径定义了从主题实体到潜在答案实体的基本方向。约束条件融合:在查询图生成过程中,将问题中提到的约束条件(如时间、地点、属性等)融入到查询图中,以指导搜索方向并减少搜索空间。查询图扩展:通过扩展、连接和聚合操作,逐步构建查询图。Extend:在已存在的关系路径上增加新的关系,以探索多跳推理路径。

2024-04-21 16:10:25 492

Hadoop2.2.0+Hbase0.98.4+sqoop-1.4.4+hive-0.98.1安装手册(All)_ZCX

叶梓老师整理的Hadoop2.2.0+Hbase0.98.4+sqoop-1.4.4+hive-0.98.1安装手册,非常实用

2018-12-27

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除