- 博客(90782)
- 资源 (9)
- 问答 (1)
- 收藏
- 关注
原创 强化学习在自动驾驶中的应用
随着科技的发展,自动驾驶已成为汽车行业的热门话题。它旨在通过智能系统实现车辆的自主导航,减少人为错误造成的交通事故,并提高交通效率。强化学习作为机器学习的一种,凭借其模仿人类学习方式,即通过反复试错和奖励机制优化行为的能力,正逐步成为推动自动驾驶技术的重要驱动力。未来,强化学习将在自动驾驶领域发挥更大作用,实现更高级别的自动化。然而,挑战依然存在,如数据隐私保护、安全性验证、法律法规的适应性以及应对未知环境的能力。随着技术的进步,这些挑战有望得到解决,从而推动自动驾驶技术迈向更高的成熟度。
2024-04-11 14:35:48 1042 1
原创 基于transformer的端到端语音识别模型解析
语音识别作为人机交互的重要技术之一,在近年来得到了飞速的发展。传统的语音识别系统通常由声学模型、语言模型和解码器三个主要部分组成,需要进行复杂的管道式处理。随着深度学习技术的不断发展,出现了基于端到端(end-to-end)的语音识别模型,能够直接从原始语音信号中输出文本序列,大大简化了系统结构。其中,基于Transformer的端到端语音识别模型在近年来取得了突破性的进展,在多个公开数据集上取得了领先的识别性能。
2024-04-08 11:59:05 509 1
原创 RAG 提示词工程最佳实践
虽然目前网络上关于提示工程的相关资料已经多如牛毛,然而 RAG (检索增强生成) 任务中提示工程如何进行的资料相对而言却较少。不少朋友之前也热烈的讨论过 RAG 场景下提示词的运用,因此 Zen 禅与计算机程序设计艺术 特别推出 RAG 任务下的提示词实践经验系列分享。RAG 是检索增强生成(Retrieval Augmented Generation)的简称,是当前最火热的企业级LLM应用方案。
2024-04-06 11:17:08 85
原创 Ilya Sutskever: 元学习和自我对弈 OpenAI Meta-Learning & Self-Play | MIT Artificial General Intelligence AGI
欢迎来到 通用人工智能,今天我们有伊利亚 sutskever 联合创始人和研究开放人工智能总监,他在多伦多的 amel 小组开始工作,杰弗里·辛顿 (Geoffrey Hinton) 随后与安嘉莹一起在斯坦福大学工作,作为 Google Brain 的研究科学家,共同创立了 DNN 研究三年,并最终共同创立了开放 AI。
2024-04-02 00:01:29 48
原创 神经网络基础:从生物神经元到人工神经元
人工智能领域中,神经网络作为一种重要的机器学习模型,已经广泛应用于计算机视觉、自然语言处理、语音识别等众多领域,取得了令人瞩目的成就。神经网络的核心思想源于人类大脑中神经元之间的信息传递与处理机制。通过模拟生物神经元的结构和功能,人工神经网络得以实现对复杂问题的高效学习和处理。本文将从生物神经元的基本构造和工作原理出发,系统地介绍人工神经元的核心概念,并深入探讨神经网络的基本算法原理、最佳实践、应用场景以及未来发展趋势。希望能够帮助读者全面理解神经网络技术的来龙去脉,为进一步学习和应用打下坚实的基础。
2024-04-01 00:55:11 784
原创 词嵌入:基础知识教程 Word Embedding: Basics
GloVe 基于强大的直觉,即单词的真正含义源自两个单词相邻出现的预期概率的差异。上表显示,在我们的语料库中,“a”后面跟着“penny”两次,而单词“earned”、“saved”和“wise”各跟随“penny”一次。在一个美妙的数学推导中,新矩阵的单元格是原始矩阵的行和列之间的点积的结果。这些方法是基于预测的,因为它们提供了单词的概率,并被证明是单词类比和单词相似度等任务的最先进技术。Google 科学家发表的一篇论文 Word2Vec 的前提是,如果经过训练来预测单词的出现,单词嵌入会更加准确。
2024-03-27 13:13:49 59
原创 霍普菲尔德神经网络和大脑神经网络系统 Hopfield nets and the brain
目录Why are Hopfield nets so interesting and intriguing?为什么霍普菲尔德网如此有趣且令人着迷?What is a hopfield net and how do they work?什么是霍普菲尔德网以及它们如何工作?How do they learn? 他们如何学习?How feedforward works in hopfield nets?hopfield 网络中前馈如何工作?The “energy” function of a Hopfield n
2024-03-21 00:55:36 711 1
原创 循环神经网络背后的直觉 The intuition behind recurrent neural networks
目录Why a new post about RNN?为什么要写一篇关于 RNN 的新文章?Before you start 在你开始之前Neural networks and deep learning神经网络和深度学习Neural Networks and Deep Learning is a free online book. The book will teach you about: Neural networks, a beautiful…神经网络和深度学习是一本免费的在线书籍。这本书将教您:神
2024-03-21 00:46:27 728
原创 【AI大模型应用开发实战】逐步推导反向传播计算原理 Backpropagation step by step
不过,输出层的大小将为 10,因为我们有从 0 到 9 的 10 个可能的标签。当训练网络时,我们输入一个数字为零的图像,我们希望第一个神经元值接近于尽可能接近 1,其余尽可能接近 0。在我们的玩具网络中,我们只有一组权重。由于权重均为正,并且输入本身为正,因此神经元的结果也为正,在这种情况下,RELU 是恒等函数。简而言之,反向传播计算梯度下降以最小化成本函数,但由于神经网络中层的排列方式使它们成为复合函数,反向传播只不过是计算链式法则后的链式法则以获得导数的值成本函数相对于网络各层深处的权重。
2024-03-21 00:19:34 1120
原创 【AI大模型应用开发实战】神经网络核心算法原理与学习过程
随着计算机技术的飞速发展,人工智能逐渐成为了当今科技领域的热门话题。人工智能旨在让计算机能够模拟人类的思维方式,从而实现智能化的决策和行为。在这个过程中,神经网络作为一种模拟人脑神经元连接的计算模型,成为了实现人工智能的关键技术之一。yfw⋅xbyfw⋅xbE12∑i1nyi−ti2E21∑i1nyi−ti2反向传播:δiLyi−tif′ziLδiLyi−ti。
2024-03-19 18:01:05 991 6
原创 【模型精调LoRA】LoRA 低秩适应微调的工作原理和代码实现示例 What is LoRA? Low-Rank Adaptation for finetuning LLMs EXPLAINED
LoRA 是一种有效的大模型微调技术,可以提高推理效率并保持良好的性能。LoRA 在许多下游任务中都取得了良好的效果,包括文本分类、机器翻译和问答。
2024-03-11 12:59:38 846
原创 【ChatGPT模型精调训练】AI 大模型精调 Fine-Tuning (微调)训练图文代码实战详解
选择预训练模型:选择一个在类似任务上已经训练好的模型作为起点。数据准备:准备并预处理你的数据集,使其适合模型的输入格式。微调:在你的特定数据集上继续训练模型,调整模型的权重。评估:评估微调后模型的性能。应用:将微调后的模型部署到实际应用中。Fine-Tuning(精调)是指在预训练模型的基础上,对模型进行微调,使其适应特定任务。预训练模型通常在大量无标签数据上进行训练,以学习通用的语言表示。通过 Fine-Tuning,我们可以在较小的标签数据集上训练模型,以便模型能够更好地解决特定任务。
2024-03-09 11:39:09 369 1
原创 第二章:AI大模型的基础知识2.1 机器学习与深度学习基础2.1.3 神经网络的基本结构
自从人工智能(AI)成为可能的研究领域以来,研究人员一直在尝试模拟生物神经网络中的行为,从而产生可编程的计算机系统。人类大脑中的神经元被认为是执行计算的基本单位,这些单位以非常高效的方式组合在一起,形成复杂的网络来处理信息。自然界中的生物神经网络已经存在数百万年,并且已经演变成了一种非常强大和高效的信息处理系统。因此,模仿生物神经网络并将其应用到计算机系统中可能是一个重大飞跃。人工神经网络(ANN)是一种由简单的处理单元(neurons)组成的网络,它们是通过可训练的连接相互连接的。
2024-02-01 15:00:57 132
原创 AI大模型应用入门实战与进阶:构建你的第一个大模型:实战指南
AI大模型是指具有大量参数和复杂结构的人工智能模型。这些模型通常需要大量的计算资源和数据来进行训练,以实现高性能的预测和生成能力。近年来,随着计算能力的提高和数据量的增加,AI大模型在各种任务中取得了显著的成果,如自然语言处理、计算机视觉和强化学习等。模型压缩与加速:随着模型规模的增加,计算资源和存储需求也在不断增加。未来的研究需要关注如何压缩和加速大模型,以适应更多的应用场景。数据效率与迁移学习:当前的大模型通常需要大量的数据和计算资源进行训练。
2024-01-28 03:18:50 1035 1
原创 【ChatGPT核心原理实战】《提示工程指南》 | Prompt Engineering Guide
提示工程是一个较新的学科,应用于开发和优化提示词(Prompt),帮助用户有效地将语言模型用于各种应用场景和研究领域。掌握了提示工程相关技能将有助于用户更好地了解大型语言模型的能力和局限性。研究人员可利用提示工程来提高大语言模型处理复杂任务场景的能力,如问答和算术推理能力。开发人员可通过提示工程设计和研发出强大的技术,实现和大语言模型或其他生态工具的高效接轨。本指南介绍了提示词相关的基础知识,帮助用户了解如何通过提示词和大语言模型进行交互并提供指导建议。
2024-01-05 01:17:04 1025 1
原创 【ChatGPT核心原理实战】手动求解 Transformer:分步数学示例 | Solving Transformer by Hand: A Step-by-Step Math Example
手动求解 Transformer:分步数学示例Understanding Transformers: A Step-by-Step Math Example — Part 1了解 Transformer:分步数学示例 — 第 1 部分I understand that the transformer architecture may seem scary, and you might have encountered various explanations on…我知道变压器架构可能看起来很可怕,并且
2023-12-22 02:23:09 2551 6
原创 Transformer注意力机制的正则化技术解读
Transformer是第一个完全基于注意力机制的序列模型,不再依赖RNN或CNN的结构。它通过自注意力(Self-Attention)机制捕捉输入序列中任意两个位置的关系,从而有效地建模长期依赖关系。与RNN相比,Transformer具有并行计算的优势,大大提高了训练效率。模型压缩和加速: 大型Transformer模型计算成本高昂,因此模型压缩和推理加速是未来的重点研究方向。多模态Transformer: 将Transformer扩展到处理多种模态数据(如文本、图像、视频等),实现多模态融合和理解。
2024-04-24 12:05:29 460
原创 Transformer在时间序列预测中的应用
Transformer在时间序列预测中的应用1.背景介绍1.1 时间序列预测的重要性时间序列预测是指根据过去的数据来预测未来的值或趋势,广泛应用于各个领域,如天气预报、股票预测、销售预测等。准确的时间序列预测对于制定决
2024-04-24 12:04:58 450
原创 Transformer在量子计算中的应用前景
Transformer在量子计算中的应用前景1. 背景介绍1.1 量子计算的兴起量子计算是一种基于量子力学原理的全新计算范式,利用量子态的叠加和纠缠等独特性质,有望在某些计算问题上展现出远超经典计算机的计算能力。近年来,随
2024-04-24 12:04:26 227
原创 Transformer网络结构详解
1. 背景介绍1.1 自然语言处理的挑战自然语言处理 (NLP) 长期以来一直是人工智能领域的一个难题。语言的复杂性和多样性使得计算机难以理解和生成人类语言。传统的 NLP 方法通常依赖于复杂的特征工程和统计模型,这些方法在处理长距离依赖关系和语义理解方面存在局限性。
2024-04-24 12:03:55 309
原创 Transformer模型的预训练与微调技术
1. 背景介绍1.1 自然语言处理技术的演进自然语言处理(NLP)一直是人工智能领域的重要研究方向,其目标是使计算机能够理解和处理人类语言。近年来,随着深度学习技术的兴起,NLP领域取得了显著的进展。从早期的统计机器翻译到基于循环神经网络的序列到序列模型,再到如今的Transformer模
2024-04-24 12:03:24 456
原创 TensorFlow入门与实战:开源机器学习框架精髓
TensorFlow入门与实战:开源机器学习框架精髓1. 背景介绍1.1 人工智能与机器学习的兴起在过去的几十年里,人工智能(AI)和机器学习(ML)技术取得了长足的进步,并逐渐渗透到我们生活的方方面面。
2024-04-24 12:02:53 251
原创 Qlearning在自然语言处理中的应用
Q-learning在自然语言处理中的应用1. 背景介绍1.1 自然语言处理概述自然语言处理(Natural Language Processing, NLP)是人工智能领域的一个重要分支,旨在使计算机能够理解和生成人类语
2024-04-24 12:02:21 391
原创 Qlearning在智慧农业中的应用
Q-learning在智慧农业中的应用1.背景介绍1.1 智慧农业的兴起随着人口不断增长和气候变化的影响,确保粮食安全和可持续发展农业已成为全球关注的重点。传统农业生产方式面临诸多挑战,如资源利用效率低下、环境污染严重等。为应对这
2024-04-24 12:01:50 377
原创 Qlearning在智慧教育中的应用
Q-learning在智慧教育中的应用1.背景介绍1.1 智慧教育的兴起随着信息技术的快速发展,教育领域也在经历着前所未有的变革。传统的教学模式已经无法满足现代学习者的需求,因此智慧教育(Smart Education)应运而生。
2024-04-24 12:01:19 211
原创 Qlearning在天气预报中的应用
1. 背景介绍1.1 天气预报的挑战精准的天气预报对于农业、航空、航海等诸多领域至关重要。然而,由于大气系统的复杂性和混沌特性,准确预测天气变化一直是一个巨大的挑战。传统的数值预报方法依赖于复杂的物理模型,计算量大且精度有限。1.2 机器学习的兴起
2024-04-24 12:00:47 246
原创 Qlearning在强化学习中的增量学习
1. 背景介绍1.1 强化学习概述强化学习(Reinforcement Learning, RL)是机器学习的一个重要分支,它关注的是智能体如何在与环境的交互中学习到最优策略,从而最大化累积奖励。不同于监督学习和非监督学习,强化学习没有明确的标签或数据样本,而是通过试错的方式,不断探索环境并根据反馈
2024-04-24 12:00:16 347
原创 Qlearning在强化学习中的应用
1. 背景介绍1.1 强化学习概述强化学习(Reinforcement Learning,RL)是机器学习的一个重要分支,它关注智能体(Agent)如何在与环境的交互中学习最优策略。智能体通过试错的方式与环境进行交互,并根据获得的奖励或惩罚来调整自己的行为,最终目标是最大化累积奖励。
2024-04-24 11:59:45 283
原创 Qlearning在教育智能化中的应用
Q-learning在教育智能化中的应用1.背景介绍1.1 教育智能化的兴起随着人工智能技术的不断发展,教育领域也开始引入智能化技术来提高教学效率和质量。教育智能化旨在利用人工智能算法和大数据分析,为学生提供个性化的学习体验,
2024-04-24 11:59:14 503
原创 Qlearning在个性化推荐系统中的应用实践
1. 背景介绍1.1 个性化推荐系统概述个性化推荐系统是当今互联网时代不可或缺的一部分,它根据用户的历史行为、兴趣偏好等信息,为用户推荐可能感兴趣的物品或内容,从而提升用户体验和平台收益。传统的推荐算法包括协同过滤、基于内容的推荐等,它们在一定程度上能够满足用户需求,但仍存在一些局限性。
2024-04-24 11:58:42 342
原创 QLearning算法的多智能体扩展
1. 背景介绍1.1 单智能体强化学习的局限性强化学习在单智能体场景中取得了巨大的成功,例如AlphaGo战胜围棋世界冠军。然而,现实世界中许多问题涉及多个智能体之间的交互,例如自动驾驶、机器人协作、多人游戏等。在这些场景中,单个智能体的行为会影响其他智能体的收益,因此需要考虑智能体之间
2024-04-24 11:58:11 531
原创 Qlearning的硬件加速与嵌入式部署
1. 背景介绍随着人工智能技术的飞速发展,强化学习作为机器学习的重要分支之一,受到越来越多的关注。Q-learning作为强化学习算法中的经典算法之一,因其简单易懂、易于实现等特点,被广泛应用于机器人控制、游戏AI、自动驾驶等领域。然而,传统的Q-learning算法在实际应用中面临着计算量大、训练时间长、资源消耗高等问题,限制了其在嵌入式设备上的
2024-04-24 11:57:40 439
原创 Python机器学习项目实战:对话系统
Python机器学习项目实战:对话系统1.背景介绍1.1 对话系统的重要性在当今时代,人机交互已经成为不可或缺的一部分。对话系统作为一种自然语言处理(NLP)技术,为人类与机器之间提供了一种自然、高效的交互方式。随着人工智能技术的
2024-04-24 11:57:09 367
原创 Python机器学习实战:股票价格预测
Python机器学习实战:股票价格预测1.背景介绍1.1 股票市场概述股票市场是一个复杂的动态系统,受到多种因素的影响,如公司业绩、行业趋势、经济政策、投资者情绪等。准确预测股票价格一直是金融领域的一大挑战。
2024-04-24 11:56:37 242
原创 Numpy和Pandas在深度学习中的应用
Numpy和Pandas在深度学习中的应用1.背景介绍1.1 深度学习的兴起近年来,深度学习(Deep Learning)作为机器学习的一个新的研究热点,受到了广泛的关注和应用。深度学习是一种基于对数据进行表示学习的机器学习方
2024-04-24 11:56:06 605
原创 Metalearning在神经网络压缩中的应用
1. 背景介绍1.1 神经网络压缩的必要性近年来,深度学习在各个领域都取得了显著的成果。然而,深度神经网络模型通常参数量庞大,计算复杂度高,这限制了其在资源受限设备上的部署和应用。为了解决这个问题,神经网络压缩技术应运而生。1.2 现有
2024-04-24 11:55:34 319
原创 Metalearning在模型安全性中的应用
1. 背景介绍1.1 模型安全性的重要性随着人工智能技术的飞速发展,机器学习模型在各个领域都得到了广泛的应用。然而,模型的安全性问题也日益凸显。恶意攻击者可以通过各种手段对模型进行攻击,例如数据投毒、对抗样本攻击等,从而导致模型输出错误的结果,甚至造成严重的安全隐患。因此,保障模型的安全性成为
2024-04-24 11:55:03 343
原创 DQN在自动驾驶中的应用前景
1. 背景介绍1.1 自动驾驶技术概述自动驾驶技术是近年来人工智能领域最热门的研究方向之一,其目标是让汽车能够在没有人类驾驶员干预的情况下,安全、高效地在道路上行驶。自动驾驶系统通常由感知、决策、控制等多个模块组成,其中决策模块负责根据感知到的环境信息,做出合理的驾驶行为决策,例如加速、减速、转
2024-04-24 11:54:31 289
原创 DQN在智慧城市建设中的应用
1. 背景介绍1.1 智慧城市与人工智能智慧城市建设是近年来全球城市发展的重要趋势,旨在利用先进的信息技术和人工智能技术,提高城市管理效率和居民生活质量。人工智能技术在智慧城市建设中扮演着重要的角色,其中深度强化学习(Deep Reinforcement Learning,DRL)技术因其强大
2024-04-24 11:54:00 459
原创 DQN在网络安全中的应用实践
1. 背景介绍1.1 网络安全威胁的演变随着互联网的快速发展,网络安全威胁也日益复杂多样。传统的基于规则的防御方法已难以应对不断变化的攻击手段。攻击者利用机器学习等技术,不断改进攻击策略,使得网络安全防御面临巨大挑战。1.2 人工智
2024-04-24 11:53:29 500
ClickHouse 高性能、可扩展和低成本的OLAP数据库 陈光剑 20230912
2023-09-14
Will AI Fix Work? 工作节奏超过了我们的跟上能力 人工智能有望创造一种全新的工作方式
2023-05-17
THE AI INDEX REPORT 人工智能指数报告 Measuring trends in Artificial Inte
2023-04-06
Kotlin Coroutines by Tutorials (1st Edition)
2021-04-28
Principles of programming languages by Gilles Dowek (auth.) (z-lib.org).pdf
2021-04-28
A Brief History of Artificial Intelligence
2021-04-28
An introduction to functional programming through lambda calculus.PDF.zip
2019-09-22
《Kotlin项目实战开发》第3章+类型系统与可空类型
2017-09-30
2024 年可以实现 AGI 吗?
2024-01-02
TA创建的收藏夹 TA关注的收藏夹
TA关注的人