- 博客(1017)
- 资源 (45)
- 收藏
- 关注
原创 Welcome To My Channel!
时间管理是一种习惯,也是一种心态。凡有成就的管理人都有四个共通的特性,即①明确的目标,②积极的态度,③自我激励,④良好的时间管理。做好时间管理,亦就是做对的事情,把事情做对。中小企业领导人与管理者,要把时间管理好,就是要坚持你的既定目标,永不放弃。2020计划 2020目标一:项目管理能力 数据分析-Power BI和其他 PPT-学习...
2019-04-18 11:11:22 8426
原创 探索AI+电商领域应用与发展
AIGC是内容生产方式的进阶,实现内容和资产的再创造一文读懂「AIGC,AI Generated Content」AI生成内容AIGC(AI-Generated Content)本质上是一种内容生产方式,即人工智能自动生产内容,是基于深度学习技术,输入数据后由人工智 能通过寻找规律并适当泛化从而生成内容的一种方式。过往的内容创作生态主要经历了PGC、UGC到AIUGC的几个阶段,但始终难以平衡创作效率创作成本及内容质量。
2024-03-21 12:22:13 810
原创 今天聊聊新零售
新零售”的本质就是以用户为导向,以技术和数据为主导的,打破时间、空间、场景等边界的商业模式。即新零售是指利用大数据、人工智能等新兴技术,以满足顾客的需求为目标,将整个零售行业的产业链进行智能化升级。形成“线上+线下+物流”三位一体的运营模式,重新将人、货、场有效组合,最终提高商品送货效率的同时,提升消费者的购买体验。“新零售”是基于大数据及人工智能等新兴技术的基础上,传统实体零售与传统电商零售的互相融合,作为零售的一部分,其本质与零售的本质是一样的。“新零售”中的“新”就是在于运用。
2024-03-20 10:40:53 1291 2
原创 2023_中国电商市场研究报告
⚠️ 关键点:流量红利减少,电商市场进入存量+增量 竞争的发展阶段;新兴电商平台不断挑战现有头部电商平台行业地位;消费者更加趋于理性,更加关注低价和服务;市场趋势:国内低价战略 + 海外(东南亚)电商拓展
2024-03-19 16:36:49 234
原创 学习经济学对做产品经理到底有什么帮助
hi,孩儿们,我又来了!今天的这篇文章完全是一时兴起,最近在各种面试,在自我介绍的时候有说到我喜欢跨领域探索,看一些不同领域的书籍,比如心理学、经济学、历史学、哲学云云,然后被问到:“那你看的这些书对你做产品有什么用吗?
2024-03-14 19:27:08 651
原创 深入浅出落地应用分析:AI数字人「微软小冰」
小冰,全称为北京红棉小冰科技有限公司,前身为微软(亚洲)互联网工程院人工智能小冰团队,是微软全球最大的人工智能独立产品研发团队。作为微软全球首个以中国为总部的人工智能产品线,小冰经多年发展,已成为微软最有价值的人工智能技术框架之一。该团队于2013年12月在中国组建。2020年5月20日,北京红棉小冰科技有限公司正式成立。7月,微软宣布将小冰分拆为独立实体,并继续保持投资权益。2023年5月16日,小冰公司宣布启动GPT克隆人计划。同年11月,小冰公司完成Pre-A轮融资。
2024-03-13 11:58:22 1013
原创 深入浅出落地应用分析:AI虚拟数字人
数字人是通过计算机技术制作的类人形象或者软件制作的结果。它们具备人类的外貌或行为模式,但他们不是现实世界中的某个人的录像,是可以独立运行和存在的。
2024-03-12 10:35:37 983
原创 深入浅出熟悉OpenAI最新大作Sora文生视频大模型
文生视频模型Sora。据介绍,Sora可以直接输出长达60秒的视频,并且包含高度细致的背景、复杂的多角度镜头,以及富有情感的多个角色。OpenAI坦言,当前Sora目前存在许多局限性,可能难以准确地模拟复杂场景的物理属性,比如玻璃破碎;也可能无法理解因果关系的具体实例。例如,一个人咬了一口饼干,但之后饼干上可能没有咬痕。该模型还可能混淆提示的空间细节,例如,混淆左和右,并且可能难以精确描述随时间发生的事件,例如跟随特定的摄像机轨迹。
2024-02-18 19:27:55 1583
原创 深入浅出了解谷歌「Gemini大模型」发展历程
谷歌Gemini 1.5深夜爆炸上线,史诗级多模态最强MoE首破100万极限上下文纪录!不得不说这技术迭代速度已经有点量级了,让我仍不住想要扒一扒Gemini的爆火路径!
2024-02-17 19:18:51 478
原创 一文读懂「Lang Chain」
LangChain赋予了开发人员将LLM与其他计算和知识来源相结合以构建应用程序的能力。使用LangChain,开发人员可以使用一个抽象LLM应用程序的核心构建块的框架。探索LangChain的能力并尝试其各个组件,会发现可能性几乎无限。LangChain框架提供了一种灵活和模块化的语言生成方法,允许创建根据用户特定需要量身定制的定制解决方案。
2024-02-06 17:15:09 1931
原创 一文读懂「四大主流计算芯片 CPU、GPU、ASIC、FPGA」特点和场景
功能:CPU具有通用性,适用于各种计算任务;GPU擅长图形渲染和并行计算;NPU专注于神经网络的训练和推理计算;TPU专为机器学习任务而设计。并行能力:GPU和TPU具有更多的处理核心和更高的并行计算能力,适合处理大规模并行计算任务。硬件加速:NPU和TPU采用专门的硬件加速技术,能够高效地执行特定类型的计算任务。应用领域:CPU广泛应用于个人电脑、服务器等各种设备;GPU主要应用于游戏、动画制作、科学计算等领域;NPU常用于人脸识别、语音识别等人工智能应用;TPU常用于深度学习任务和自然语言处理等领域。
2024-02-06 13:28:07 1551
原创 2023_中国零售业人工智能行业应用 发展图谱
案例:京东云、蓝色光标、京东言犀智能服务、腾讯企点、案例:淘天集团、极睿科技、百度电商数字人直播案例:中国联通、云拿科技AI智能商店;
2024-02-05 23:25:54 257
原创 第十一周:CV视觉内容深入(可选)
计算机视觉是人工智能的一个重要分支,其目标是使机器具备类似于人类视觉的能力,使用计算机模仿人类视觉系统的科学,让计算机拥有类似人类提取、处理、理解和分析图像以及图像序列的能力。计算机视觉系统的主要功能有图像获取、预处理、特征提取、检测/分割和高级处理,这一领域涵盖了图像识别、目标检测、图像生成等多个方面,已经在各行各业取得了显著的成果。人工智能是一门涵盖多个领域的科学,它旨在使计算机能够模拟人类智能,完成类似于人类的学习、推理和决策等任务。
2024-02-04 14:09:23 251
原创 一文读懂「LM,Large Model / Foundation Model」大模型
大模型是指具有大量参数的机器学习模型,通常指深度学习模型。首先,大模型这个词是建立在神经网络模型上的。神经网络是一种基于生物学神经系统结构和功能的计算模型,旨在模仿人脑的学习和决策过程该模型由多个神经元组成,这些神经元通过权重连接形成层次结构,通常分为输入层、隐藏层和输出层。输入层接收原始数据,输出层产生最终的输出,而隐藏层在这两者之间进行中间处理。神经网络通过学习调整连接权重,从而能够识别模式、进行分类、回归等任务。
2024-02-03 19:56:42 1615
原创 一文读懂「MOE,Mixed Expert Models」混合专家模型
混合专家(Mixture of Experts,简称MoE)是一种集成学习方法,它通过将多个专业化的子模型(即“专家”)组合起来,形成一个整体模型,每一个“专家”都在其擅长的领域内做出贡献。而决定哪个“专家”参与解答特定问题的,是一个称为“门控网络”的机制。每个专家模型可以专注于解决特定的子问题,而整体模型则能够在复杂的任务中获得更好的性能。MoE提出的前提是如果有一个包括了多个领域知识的复杂问题,我们该使用什么样的方法来解决呢?
2024-02-03 14:19:23 687
原创 深入浅出AI落地应用分析:AI个人助手Monica
产品链接官方介绍: Monica是一个使用最先进的AI模型(GPT-4、Claude、Bard 等)帮助你对话、搜索、写作、翻译的一站式AI助手,并且提供多种图片、视频、PDF处理的工具。Monica是一款基于Google浏览器的Chrome扩展插件,主打AI assistant,它通过增强Chatgpt模型,提高您的工作效率,让您第一时间体验最核心、最前沿的AI技术。只需在任意网页上按下Cmd+M或Ctrl+M,即可与Chatgpt聊天。📌 产品定位现在。
2024-01-31 17:03:33 1327
原创 快速了解!AI领域最全的大模型术语!!!
Transformer:Transformer 是一种基于自注意力机制(self-attention mechanism)的深度学习模型,最初是为了处理序列到序列(sequence-to-sequence)的任务,比如机器翻译。后续这些模型都是基于Transformer 开发的。GPT(GPT-3、GPT-3.5、GPT-4):全称为Generative Pre-training Transformer,是OpenAI开发的一种基于Transformer的大规模自然语言生成模型。
2024-01-31 15:39:37 945
原创 一文读懂「Embedding」嵌入技术
Embedding 是一种将高维数据(如文本或图像)转换为较低维度的向量表示的技术。这种表示捕捉了数据的关键特征,使得在处理、分析和机器学习任务中更加高效。通常用于将离散的、非连续的数据转换为连续的向量表示,以便于计算机进行处理。“Embedding”直译是嵌入式、嵌入层。通俗讲,我们常见的地图就是对于现实地理的Embedding,现实的地理地形的信息其实远远超过三维,但是地图通过颜色和等高线等来最大化表现现实的地理信息。
2024-01-31 14:43:25 1370
原创 深入浅出AI落地应用分析:AI视频生成Top 5应用
Runwayml提供了30多种AI魔法工具和全功能的视频编辑器,可以轻松地生成和编辑视频、图片、音频等。Runwayml支持多种格式的文件导入和导出,也支持Adobe Premiere Pro、Adobe After Effects、Davinci Resolve等。Runwayml提供简单易用强大的工具箱,适合任何对AI和创意感兴趣的人和专业人员。在AI魔法工具支持下,用户可以用文字或图片来生成新内容,或者对现有内容进行修改。例如可以使用Text to Image工具,输入描述,生成相应的图片。
2024-01-24 12:31:20 741
原创 深入浅出AI落地应用分析:AI音乐生成之「Suno.ai」
Suno,印地语中意为「倾听」。与多数 AI 音乐应用不同的是,它专注于创作全新旋律和人声,而不是模仿已有的知名艺术家声音或歌曲风格。首席执行官兼联合创始人 Mikey Shulman 表示,尽管以特定艺术家风格创作新歌很酷、很有趣,但长期来看,这种体验不会给消费者带来持久的乐趣。他们的理念是让更多人收获创作音乐的乐趣,同时也更加重视人声音乐。Mikey Shulman 表示「大多数人不会演奏乐器,也不了解复杂的软件,到目前为止,这一直是创作优美音乐的障碍。
2024-01-23 18:07:20 2500
原创 深入浅出AI落地应用分析:国内Top10应用(下)
接下来会每周集中体验一些通用或者垂直的AI落地应用,主要以一些全球或者国外国内排行较前的产品为研究对象,「」以专题的方式在博客进行分享。
2024-01-23 10:54:53 422
原创 深入浅出AI落地应用分析:全球榜Top10应用(下)
深入浅出AI落地应用分析:全球榜Top10应用(上)26/100发布文章未选择任何文件接下俩会每周集中体验一些通用或者垂直的AI落地应用,主要以一些全球或者国外国内排行较前的产品为研究对象,「」以专题的方式在博客进行分享。
2024-01-22 16:35:05 468
原创 一文读懂「PTMs , Pre-training models」预训练模型
预训练模型是指在大规模数据集上预先进行训练的神经网络模型,通常在通用任务上学习到的特征可以被迁移到其他特定任务中。预训练模型的思想是利用大规模数据的信息来初始化模型参数,然后通过微调或迁移学习,将模型适应在特定的目标任务上。即在训练结束时结果比较好的一组权重值,研究人员分享出来供其他人使用。我们可以在github上找到许多具有权重的库。
2024-01-22 14:31:31 1533
原创 一文读懂「RAG,Retrieval-Augmented Generation」检索增强生成
检索增强生成(Retrieval Augmented Generation),简称 RAG,已经成为当前最火热的LLM应用方案。它是一个为大模型提供外部知识源的概念,这使它们能够生成准确且符合上下文的答案,同时能够减少模型幻觉。知识的局限性:模型自身的知识完全源于它的训练数据,而现有的主流大模型(ChatGPT、文心一言、通义千问…)的训练集基本都是构建于网络公开的数据,对于一些实时性的、非公开的或离线的数据是无法获取到的,这部分知识也就无从具备。幻觉问题。
2024-01-20 17:17:52 3915 1
原创 一文读懂「Fine-tuning」微调
微调是指在预训练模型(Pre-trained model)的基础上,针对特定任务或数据领域,对部分或全部模型参数进行进一步的训练和调整(Fine Tune)。预训练模型通常是在大规模数据集上训练得到的,具有一定的通用性和泛化能力。微调的目标是在较小的目标数据集上,通过有限的训练数据,使模型更好地适应特定任务,从而提高模型在该任务上的性能。
2024-01-19 17:54:56 691
原创 (2023版)斯坦福CS231n学习笔记:DL与CV教程 (12) | 视觉模型可视化与可解释性(Visualizing and Understanding)
⚠️ **本节重点内容**:1. 可视化模型所学:过滤器可视化、最终层特征可视化、激活可视化2. 了解输入像素:识别重要像素、通过反向推理识别显著性、引导逆推生成图像、梯度上升可视化特征3. 对抗性扰动4. 风格迁移:特征反转、深度梦境、纹理合成、神经风格转移
2024-01-19 15:12:31 240
原创 一文读懂「RLHF」基于人类反馈的进行强化学习
RLHF就是基于人类反馈(Human Feedback)对语言模型进行强化学习(Reinforcement Learning),和一般的fine-tune过程乃至prompt tuning自然也不同。多种策略产生样本并收集人类反馈训练奖励模型训练强化学习策略,微调 LM首先需要一个预训练语言模型,通过大量的语料去训练出基础模型,对于ChatGPT来说就是GPT-3。还有一个可选的Human Augmented Text,又叫Fine-tune。
2024-01-18 12:50:48 1898
原创 (2023版)斯坦福CS231n学习笔记:DL与CV教程 (11) | 目标检测和图像分割(Object Detection and Image Segmentation)
⚠️ **本节重点内容**:1. 语义分割(Semantic Segmentation)2. 目标检测(Object Detection)3. 实例分割(Instance Segmentation)
2024-01-18 11:04:28 381
原创 (2023版)斯坦福CS231n学习笔记:DL与CV教程 (10) | 视频理解(Video Understanding)
⚠️ **本节重点内容**:1. 视频分类2. 3D CNN3. 双流网络4. 循环卷积网络5. 多模态视频理解
2024-01-18 11:02:58 301
原创 深入浅出AI落地应用分析:国内Top10应用(上)
接下来会每周集中体验一些通用或者垂直的AI落地应用,主要以一些全球或者国外国内排行较前的产品为研究对象,「」以专题的方式在博客进行分享。
2024-01-17 11:14:17 570
原创 (2023版)斯坦福CS231n学习笔记:DL与CV教程 (9) | 注意力机制和转换模型(Attention and Transformers)
⚠️ **本节重点内容**:1. attention注意力2. transformer
2024-01-17 11:04:15 149
原创 深入浅出AI落地应用分析:全球榜Top10应用(上)
接下俩会每周集中体验一些通用或者垂直的AI落地应用,主要以一些全球或者国外国内排行较前的产品为研究对象,「」以专题的方式在博客进行分享。
2024-01-16 21:23:10 592
原创 (2023版)斯坦福CS231n学习笔记:DL与CV教程 (8) | 循环神经网络RNN
RNN 在架构设计方面具有很大的灵活性;Vanilla RNNs 虽然简单,但效果不佳;常见的是使用 LSTM 或 GRU:它们的相加相互作用改善梯度流RNN 中的梯度后向流动可以爆炸或消失。爆炸是通过梯度剪切来控制的。消失通过加性相互作用来控制(LSTM)更好/更简单的架构是当前研究的热门话题、以及序列推理的新范式需要更好的理解(理论和经验)。
2024-01-16 14:21:42 66
原创 一文读懂「LLM,Large Language Model」大语言模型
概念大语言模型是一种建立在 Transformer 架构上的大规模神经网络程序,其功能主要是理解和处理各种语言文字。这种模型的优势在于,其能够在多种任务中实现通用学习,无须对特定语言文字进行大量定制,是目前人类世界中第一个通用的人工智能模型。当我们讨论大语言模型时,主要是关注如何让计算机能够理解和生成人类语言。简单来说,大语言模型是一种算法,其目标是理解语言的规则和结构,然后应用这些规则和结构生成有意义的文本。这就像让计算机学会了“文字表达”。
2024-01-16 01:18:36 559
原创 一文读懂「AIGC,AI Generated Content」AI生成内容
AIGC要素:算力 + 算法+ 数据AIGC发展重点AIGC产业链路AIGC未来方向。
2024-01-15 19:09:11 858
原创 (2023版)斯坦福CS231n学习笔记:DL与CV教程 (7) | 神经网络训练技巧
1. 初始化:激活函数选择、数据预处理、权重初始化、正则化、梯度检查2. 训练动态:监控学习过程、参数更新、超参数优化3. 模型评估:模型集成(model ensembles)、测试、扩增、迁移学习
2024-01-15 10:55:21 143
原创 (2023版)斯坦福CS231n学习笔记:DL与CV教程 (5&6) | 卷积神经网络
本章(lecture5)花了很大篇幅介绍了卷积网络发展进程和基础的一些信息,这里不做详细记录,感兴趣可以直接看PPT!我们直接结合第五节的部分内容进入卷积神经网络部分Lecture6。
2024-01-14 15:54:40 292
原创 (2023版)斯坦福CS231n学习笔记:DL与CV教程 (4) | 神经网络与反向传播
类比人类大脑神经元结构:输入、权重、激活函数、计算、输出;大脑的基本计算单位是神经元(neuron)。人类的神经系统中大约有 860 亿个神经元,它们被大约 1014 - 1015 个突触(synapses)连接起来。上方是一个生物学的神经元,下方是一个简化的常用数学模型。每个神经元都从它的树突(dendrites)获得输入信号,然后沿着它唯一的轴突(axon) 产生输出信号。轴突在末端会逐渐分枝,通过突触和其他神经元的树突相连。
2024-01-13 11:43:16 184
管理十诫:影响你一生的管理哲学
2019-05-01
Single Image Dehazing via Multi-Scale Convolutional Neural Networks
2019-04-05
Learning Linear Transformations for Fast Arbitrary Style Transfer论文解读
2019-04-03
粉丝经济:传统企业转型互联网的突破口
2019-01-03
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人