导语:mac 后台有很多 google chrome helper 线程并且内存占用较高。一直怀疑是IDEA插件的锅,并不是! 查看是哪个网页,哪个插件占用内存。 chrome 更多工具 -> 任务管理器: 找到罪魁祸首,关闭标签页或者结束进程: 本文由博客一文多发平台 OpenWrite 发布!
0 前言 在开发复杂的AI应用时,赋予Agent记忆能力是一个关键步骤。这不仅能提高Agent的性能,还能使其在多轮对话中保持上下文连贯性。本文将详细介绍如何在Langchain框架中为Agent添加记忆功能,并深入解析每个步骤的原理和最佳实践。 Agent记忆功能的核心组件 在Langchain中,构建具有记忆功能的Agent主要涉及三个核心组件: 工具(Tools): Agent用来执行特定
报错现场 现象解释 因为你在插入时没有给 Customer.Id 赋值,MySQL 会倾向于赋值为 NULL。但是主键不能为 NULL,所以 MySQL 帮了你一个忙,将值转换为 0。这样,在第二次插入时就会出现冲突(如果已经有一条记录为 0)。 解决方案 将 MySQL 表的 id 设置为自增主键! 本文由博客一文多发平台 OpenWrite 发布!
1 Zero-shot learning 零样本学习。 1.1 任务定义 利用训练集数据训练模型,使得模型能够对测试集的对象进行分类,但是训练集类别和测试集类别之间没有交集;期间需要借助类别的描述,来建立训练集和测试集之间的联系,从而使得模型有效。 Zero-shot learning 就是希望我们的模型能够对其从没见过的类别进行分类,让机器具有推理能力,实现真正的智能。其中零次(Zero-sho
1 Prompt Prompt 可理解为指导AI模型生成特定类型、主题或格式内容的文本。 NLP中,Prompt 通常由一个问题或任务描述组成,如“给我写一篇有关RAG的文章”,这句话就是Prompt。 Prompt赋予LLM小样本甚至零样本学习的能力: LLM能力本质上说是续写,通过编写更好的prompt来指导模型,并因此获得更好的结果: 无具体指令,模型只会续写。输出结果可能出人意料或远高
1 完整RAG应用的检索流程 从用户输入Query到最终输出答案的各个步骤。整个流程包括Query预处理、检索召回、排序等关键环节,每个环节都有不同的技术和方法来提升检索效果。 2 Query预处理 2.1 意图识别 判断query问的是什么类型的问题,从而决定是否走RAG链路。 示例1 深圳有啥好玩的? 闲聊问题 VDB支持哪些检索算法? 产品常见问题 示例2 为啥某个MongoDB实例
1 文本Embedding 将整个文本转化为实数向量的技术。 Embedding优点是可将离散的词语或句子转化为连续的向量,就可用数学方法来处理词语或句子,捕捉到文本的语义信息,文本和文本的关系信息。 ◉ 优质的Embedding通常会让语义相似的文本在空间中彼此接近: ◉ 优质的Embedding相似的语义关系可以通过向量的算术运算来表示: 2 文本Embedding模型的演进与选型 目前
1 开源解析和拆分文档 第三方工具去对文件解析拆分,将文件内容给提取出来,并将我们的文档内容去拆分成一个小的chunk。常见的PDF word mark down, JSON、HTML。都可以有很好的一些模块去把这些文件去进行一个东西去提取。 1.1 优势 支持丰富的文档类型 每种文档多样化选择 与开源框架无缝集成 但有时效果非常差,来内容跟原始的文件内容差别大。 2 PDF格式多样性 复
大模型在一定程度上去改变了我们生活生工作的思考的方式,然后也越来越多的个人还有企业在思考如何将大模型去应用到更加实际的呃生产生活中去,希望大语言模型能够呃有一些更多企业级别生产落地的实践,然后去帮助我们解决一些业务上的问题。目前 1 LLM的问题 1.1 幻觉 LLM因为是一个预训练模型,它已有一些知识储备,我们提的问题跟他的知识储备不相符时,会产生一些幻觉问题,看上去正确的回答 1.2 新鲜度
1 利用内存实现短时记忆 from langchain.memory import ConversationBufferMemory memory = ConversationBufferMemory() memory.chat_memory.add_user_message("你好,我是人类!") memory.chat_memory.add_ai_message(&qu
1 stuff 将文档列表插入到提示词中,适合文档较小或少量文档的应用。 2 refine 通过循环输入文档并迭代更新答案来构建响应,一次只传递给LLM一个文档,适合LLM上下文大小不能容纳的小文档。 参考: https://js.langchain.com/v0.1/docs/modules/chains/#when-to-use-1 https://js.langchain.com/v0
1 Langchain的核心组件 那肯定就是Chain 当然! Langchain是一种功能强大且灵活的链式处理框架,广泛应用于各种数据处理和分析任务中。它的核心组件是Chain,这是所有处理流程的基石。 1.1 什么是Chain? 在Langchain中,Chain是一个处理单元,负责接收输入数据、执行特定操作并输出结果。每个Chain可以独立工作,也可以与其他Chain组合,形成复杂的处理流程
1 安装依赖 ! pip install --upgrade langchain ! pip install --upgrade openai==0.27.8 ! pip install -U langchain-openai ! pip show openai ! pip show langchain ! pip show langchain-openai 2 Embed_documents
1 长文本切分信息丢失处理方案 10+检索时性能大幅下降 相关信息在头尾性能最高 检索 ->> 排序 ->使用 实战 安装依赖: ! pip install sentence-transformers 演示如何使用 Langchain 库中的组件来处理长文本和检索相关信息。 导入所需的库 使用指定的预训练模型(MiniLM-L6-v2)创建嵌入对象 定义一系列与用户兴趣
LLM大模型与AI应用的粘合剂。 1 langchain是什么以及发展过程 LangChain是一个开源框架,旨在简化使用大型语言模型构建端到端应用程序的过程,也是ReAct(reason+act)论文的落地实现。 2022年10月25日开源 54K+ star 种子轮一周1000万美金,A轮2500万美金 11个月里累计发布200多次,提交4000多次代码 2 langchain能做什么和能
1 行业全景图 2 结构拆解AI GC 生成式AI这个产业。分成上中下游三大块。 2.1 上游基础层 主要包括: 算力:包括AI芯片和云服务等,例如像英伟达、AMD以及华为等厂商提供的算力基础设施。大型模型基于Transformer架构,对算力的需求很大。 数据:新时代的石油,分为基础数据服务、数据集和向量数据库。 算法:算法基础包括TensorFlow、PyTorch等著名算法框架,以及百度
0 前言 无需为不同任务使用单独软件 使用日常语言来命令你的设备 “代理”是人工智能的高级形式 未来五年将成为现实 人人都有的私人助理Agent 应用在干行百业之中(医疗、教育、娱乐....) 1 Agents 是什么? Al Agents是基于LLM的能够自主理解、自主规划决策、执行复杂任务的智能体,Agents不是chatGPT的升级版,它不仅告诉你“如何做”,更会帮你去做,如果各种Co
1 Prompt Prompt 可理解为用于指导AI模型生成特定类型、主题或格式内容的文本。在NLP中,Prompt 通常由一个问题或任务描述组成,例如“给我写一篇有关RAG的文章”,这句话就是Prompt。 Prompt赋予了LLM小样本甚至零样本学习的能力。 大模型的能力本质上来说是续写,通过编写更好的prompt来指导模型,并因此获得更好的结果。 无具体指令,模型只会续写。输出结果可能出
在 Mac 上安装多个 Python 版本可通过几种不同方法实现。 1 Homebrew 1.1 安装 Homebrew 若安装过,跳过该步。 /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" 1.2 安装 Python 如安装 Pyt
1 ShardingSphere自动生成键 MySQL自增键、Oracle自增序列等。分片场景下问题就复杂了,不能依靠单实例上的自增键来实现不同数据节点之间的全局唯一主键,分布式主键的需求应运而生。ShardingSphere 作为一款优秀分库分表开源软件,同样提供分布式主键实现机制。 1.1 GeneratedKey 使用 ShardingSphere 提供的自动生成键方案时,开发过程及效果和上
对于“软件架构”这个词有很多定义和含义。而且,“软件开发”、“软件设计”和“软件架构”这三个概念之间存在相当大的重叠,它们在许多方面相互交融。 从核心上看,可以将软件架构视为在构建应用程序时,对不同选择进行权衡的学科。 1 为什么需要权衡以及我们为什么在意? 我们在构建软件时必须进行权衡的原因,与其他学科中的权衡原因相同。计算系统是复杂的,复杂性越高,实现特定系统的全部目标的方式就越微妙。这些目标
Jetty,Eclipse基金会开源项目,和Tomcat一样,Jetty也是“HTTP服务器 + Servlet容器”,且Jetty和Tomcat在架构设计相似。但Jetty也有自己特点,更小巧,更易定制化。Jetty作为后起之秀,应用范围越来越广,如Google App Engine就采用Jetty作Web容器。1 Jetty整体架构Jetty Server:多个Connector(连接器)、多
1 场景客户端调用服务端接口,服务端这个接口比较耗时。为了优化服务端的性能。服务端收到servlet请求后,释放掉servlet占用的线程资源。传统的 servlet 请求处理是同步的,即每个请求占用一个线程,直到请求处理完毕。如果处理时间较长,会阻塞线程,导致性能下降。开启一个异步线程去处理耗时的操作。当耗时操作处理完成后,将结果返回给客户端。注意:在此期间,客户端和服务端的http链接并不会断
学习 Java 8年了,我一直坚定不移地“抄”代码:“抄”同事“抄”框架“抄”网友有黑子会问,你天天自吹技术专家了,天天就知道抄?对此,我只想说,是的,咋滴?初级程序员和高级程序员最大的区别在哪里?:1 为啥就知道抄?“抄”,听起来让人不舒服?技术人嘛,咋能叫抄呢,应该叫:造轮子。不过似乎也被诟病,大佬们肯定劝你:年轻人不要重复造轮子,你的一切发明不过是发现!首先,造轮子是你面前已经有一个轮子了。
Distributed Caching:如果每次我在软件系统的缓存实现中遇到一个错误都能赚到一美元的话……我大概可以支付Redis Enterprise一年的企业订阅费用了。缓存,似乎是这样一种东西,你几乎能把它做对,但永远不会完全对。这是有充分理由的。毕竟——缓存(或者更确切地说是缓存失效)是计算机科学中被认为最难解决的两个基础性问题之一。当然,另一个是命名变量。无论是开玩笑还是认真——缓存确实
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号