你好呀,我是小智!熟悉我的小伙伴们,一定看过我之前介绍Agent如何实现百万上下文RAG的那篇文章。不得不说AI发展真的是日新月异,这才没过多久,模型本身的上下文能力也来到了百万级别。小智也是在苦思如何解决大模型代码库解析跨文件关联问题时,无意中在智谱AI 的大模型开放平台(bigmodel.cn)上发现了支持 1M 上下文(约 150-200 万汉字)的 GLM-4-Long。更没想到的是,模型
用户体验代理,第二部分:环境型这是我们关于代理用户体验的第二篇文章。我们讨论了能够同时处理多项任务的环境型背景代理,以及它们如何融入您的工作流程。本系列合集,点击链接查看在之前的博客文章中,我们探讨了基于聊天的代理用户体验,其中用户需要主动思考如何与AI进行交流。但如果AI能在后台默默为您工作,那会怎样呢?我认为,为了让代理系统真正发挥潜力,我们需要转变观念,让AI在后台默默工作。当任务在后台处理
少量样本提示提升工具调用效率在大型语言模型(LLM)的应用中,工具的使用至关重要。我们一直在研究如何提升LLM调用工具的性能。一种常见的提升方法是通过少量样本提示,即将一些模型输入的示例和期望的输出结果直接展示给模型。据Language Models are Few-Shot Learners一文,这种方法能够在多种任务中显著提高模型的表现。本系列合集,点击链接查看构建少量样本提示的方法多种多样,
如果你询问任何正在使用大型语言模型(LLM)构建智能代理的开发者,他们很可能会告诉你,智能代理在规划和推理方面的不足是影响其可靠性的一个主要问题。本系列合集,点击链接查看智能代理的规划究竟是什么?目前人们是如何克服这一缺陷的?我们对智能代理未来规划和推理的发展趋势有何预测?接下来的文章将一一解答这些问题。**编辑注:**本文经翻译并二次整理自planning-for-agents一文。规划和推理的
What is an agent?近年来,大型语言模型(LLM)的能力越来越强,应用范围也越来越广泛,其中一个热门方向就是智能体(Agent)。但在这一切的背后,我们真正追求的是什么?是简单地让机器执行命令,还是赋予它们更多的智能体特性(Agentic features),使它们能够更加自主地参与决策过程?本系列合集,点击链接查看本文将深入探讨智能体的概念、为何“具有智能体特性”变得如此重要,以及
吴恩达在人工智能领域,评估模型性能和输出质量一直是一个重要且复杂的问题。随着大规模语言模型(LLM)的广泛应用,如何有效评估这些模型的输出变得尤为关键。本文将探讨吴恩达来信中提出的LLM-as-a-Judge的困境,并介绍LangSmith和OpenAI在这一领域的前沿研究和解决方案。本系列合集,点击链接查看吴恩达提出LLM-as-a-Judge的几点困境吴恩达老师提出了大语言模型评估的两种主要类
LangChain于近日正式发布了LangGraph v0.1 的稳定版本。这一版本为开发者提供了强大的工具,能够设计和运行自定义的认知架构,将 AI 智能体的构建推向了一个新的阶段。本系列合集,点击链接查看LangGraph:自定义认知架构的革新LangGraph 是什么?它是一个用于构建和管理复杂Agent的框架,允许开发者通过直观的编程接口控制Agent的行为。LangGraph 的核心设计
相信大家都已经听说过OpenAI宣布禁止对中国提供API服务的消息了,随之国内厂商也纷纷采取行动。智谱AI在6月25日特别宣布推出OpenAI API用户特别搬家计划,今天小智就带大家看看智谱AI最新的API能力。本系列合集,点击链接查看了解小智的粉丝相信对智谱AI都不陌生,在往期LangChain教程里,小智已经通过GLM4的超强能力搭建了众多的Agent智能体应用。最近智谱AI又悄摸上线了GL
在AI技术飞速发展的今天,我们见证了许多令人惊叹的突破。最近,Qwen2模型的开源引起了广泛的关注,它不仅展示了超越闭源模型的能力,还带来了一个全新的框架——Qwen-Agent。Qwen-Agent的设计思路虽然与LangChain相似,但其发布几个的Agent示例却很有意思。今天本文将深入探讨如何使用Qwen-Agent将上下文记忆扩展到百万量级,让Agent的智能得到更广泛的应用。暴力关键字
近期网上疯狂流传了一个人类与AI参与的VR狼人杀游戏,十分有趣。通过对游戏内容的分析,我发现游戏VR的表现形式十分吸引人,但其中的AI对话部分并不复杂。于是小智使用LangGraph实现了一个文字版本,今天将代码开源(文末获取),希望大家能喜欢。本系列合集,点击链接查看AI狼人杀,人类一败涂地首先给没看过视频的小伙伴们介绍下:一个名为 Tore Knabe 的网友在 X 平台发布了一个视频,展示了
最近Hugging Face官宣发布langchain_huggingface,这是一个由 Hugging Face 和 LangChain 共同维护的 LangChain 合作伙伴包。这个新的 Python 包旨在将 Hugging Face 最新功能引入 LangChain 并保持同步。本系列合集,点击链接查看通过官方包的加持,开发小伙伴们通过简单的api调用就能在langchain中轻松使用
在之前的部分,我们探讨了如何利用单一提示和大型语言模型(LLM)来处理多样化的用户需求,没看过的同学可以点击链接探索LangGraph:如何创建一个既智能又可控的航空客服AI查阅。利用单一提示的方法确实能覆盖很广的应用场景。但是,如果想要为特定的用户需求提供稳定且出色的体验,仅靠这种方法就显得有些力不从心了。取而代之的是,我们可以通过识别用户的意图,并将其引导至相应的定制化流程或“技能”,来满足用
上节课,我们将利用LangGraph的interrupt_before功能,在执行任何工具之前,暂停流程并把控制权交还给用户。没看过的同学可以点击链接LangGraph实战:可控的AI航空客服助手查阅。在本章节中,我们通过将工具分为只读(安全)和修改数据(敏感)两类,来优化我们的中断机制。我们仅对敏感工具实施中断,使得机器人能够自主处理一些简单的查询。这种设计既保持了用户控制权,又确保了对话流程的
上节课,我们定义了AI航空客服助手需要使用的一系列API接口工具,并定义了一个简单的零样本代理作为用户的助手。没看过的同学可以点击链接LangGraph实战:从零分阶打造人工智能航空客服助手查阅。这次我们将讲述,如何通过LangGraph的特性,使得客服助手的行为更加可控。当智能助手代表用户执行操作时,用户几乎总是应该对是否执行这些操作拥有最终决定权。否则,即使是智能助手的一点小失误,或是它未能抵
阅读时间:8分钟编辑注:本文经翻译并二次整理自How to Build the Ultimate AI Automation with Multi-Agent Collaboration一文。由Wix的研发负责人Assaf Elovic撰写,他将向我们展示如何利用LangGraph和多个Agent组合,构建一个能够自主进行研究的AI助手。本系列合集,点击链接查看自GPT Researcher首次发
在人工智能领域,Agent开发是一个不断演进的过程,它涉及到如何将AI技术与实际应用相结合,以提高效率、增强用户体验和推动业务发展。本文将探讨Agent开发的三个阶段,从基础的API使用到复杂的智能应用开发,逐步深入,帮助读者理解Agent开发的深层含义。本系列合集,点击链接查看引言随着人工智能技术的飞速发展,Agent(智能体)的概念已经从科幻小说走进了现实世界。Agent可以被理解为一种具有一
本文经翻译并二次整理自LangChain v0.2: A Leap Towards Stability一文。LangChain官方正式对外宣布了LangChain v0.2的预发布版本,这个版本在提升LangChain的稳定性和安全性方面迈出了重要一步。。本系列合集,点击链接查看阅读时间:约5分钟发布日期:2024年5月10日还记得四个月前我们发布的LangChain首个稳定版吗?今天,我们继续这
通过本指南,你将学习构建一个专为航空公司设计的客服助手,它将协助用户查询旅行信息并规划行程。在此过程中,你将掌握如何利用LangGraph的中断机制、检查点技术以及更为复杂的状态管理功能,来优化你的助手工具,同时有效管理用户的机票预订、酒店住宿、租车服务以及旅游活动。客服助手机器人能够帮助团队更高效地处理日常咨询,但要打造一个能够稳定应对各种任务且不会让用户感到烦恼的机器人并非易事。完成本教程后,
本文经翻译并二次整理自Graph-based metadata filtering for improving vector search in RAG applications一文。本文向我们展示了如何使用图数据库技术提高文档搜索的精确度。本系列合集,点击链接查看文本嵌入和向量搜索技术可以帮助我们根据文档的含义及其相似性来检索文档。但当需要根据日期或类别等特定标准来筛选信息时,这些技术就显得力不
本文经翻译并二次整理自Empowering Development with FlowTestAI一文。FlowTestAI基于LangChain构建了完整的本地工作流创建工具。本系列合集,点击链接查看当独立的API相互连接时,它们变得极为强大。无论是与外部客户的互动、内部使用还是常规的端到端测试,几乎所有的在线交互实际上都是由相互连接的API网络构成的“流程”。这种相互连接是数字产品体验的核心。
你还在烦恼不能自主构建和调试AI模型吗?你还在为自己的AI项目寻找合适的工具和框架吗?如果你已有一定的AI和python基础,我有一个好消息要告诉你:lang2openai已经开源了!这个开源项目让你可以按照openai的方式使用所有模型。下面让我们深度了解一下lang2openai。前言在详细介绍lang2openai之前,让我们先来了解一下背景知识。当前市场上有许多API适配工具,比如one-
本文经翻译并二次整理自Tool Calling with LangChain一文。为了简化和统一与各种大型语言模型(LLM)提供商的工具调用API的交互,LangChain正在针对 AIMessage 引入一个名为 tool_calls 的新属性。本系列合集,点击链接查看Tool Calling with LangChainPython:聊天模型列表 显示工具调用能力状态工具调用 解释新的工具调用
本文经翻译并二次整理自LangFriend: a Journal with Long-Term Memory一文。讲述了LangChain在模型记忆功能方面进行的一次深入的应用实战,并推出了具备记忆能力的日记应用-LangFriend。本系列合集,点击链接查看LangFriend:具有长期记忆的日记应用在LangChain,我们对“记忆”这一概念特别感兴趣。我们相信,通过实际的应用示例来展示一个概
最近,人工智能领域的泰斗吴恩达教授提出了一个观点,即通过智能体工作流构建的AI在某些应用场景中的表现甚至可以超越GPT-4。他认为,智能体工作流将是推动今年人工智能发展的重要趋势。本文将深入探讨这一理念,并以LangGraph为例,实现一个能够自我反思和优化代码的智能体。本文为一个系列,之前内容没有看过的小伙伴可以点击链接查看:LangChain课程合集Agent开发的四种设计模式在吴恩达教授的演
本文经翻译并二次整理自Benchmarking Query Analysis in High Cardinality Situations一文。讲述了基于反馈的GPT自学进化的基础理念,以及基于LangSmith的实践与实操。本系列合集,点击链接查看在大型语言模型(LLM)的应用中,有几个场景需要以结构化的方式呈现数据,其中信息提取和查询分析是两个典型的例子。我们最近通过更新的文档和一个专门的代码
本文经翻译并二次整理自Using Feedback to Improve Your Application: Self Learning GPTs一文。讲述了基于反馈的GPT自学进化的基础理念,以及基于LangSmith的实践与实操。本系列合集,点击链接查看我们打造了一个名为Self Learning GPTs 的演示应用,展示了如何通过用户反馈让应用程序不断学习和进步。这个应用利用 LangSm
本文经翻译并二次整理自LangChain Integrates NVIDIA NIM for GPU-optimized LLM Inference in RAG一文。NVIDIA NIM前脚刚推出,LangChain已经完成了集成适配,今天本文将展示基于NVIDIA NIM的RAG应用实战 。本系列合集,点击链接查看大约在一年半前,OpenAI 推出了 ChatGPT,标志着生成式 AI 时代的
本文经翻译并二次整理自Multi Needle in a Haystack一文。介绍了评估并理解模型在处理长文本和检索信息方面的能力边界实现思路,以及工程实践。本系列合集,点击链接查看关键链接视频介绍相关代码概览随着人工智能模型处理能力的增强,能够处理的上下文信息越来越多,达到百万级别的词汇量,对于这类长上下文的大型语言模型(LLMs)的研究兴趣也随之增长。在这些模型中,一个流行的测试方法是将一个
本文译自Use Case Accelerant: Extraction Service一文。介绍了基于LLM优化数据抽取,提升RAG效能的实现思路,以及工程实践。本系列合集,点击链接查看RAG加速器:数据抽取服务今日,我们激动地公布了我们最新的开源项目——用例加速器:一项数据抽取服务。大型语言模型(LLM)极其擅长从非结构化数据中抽取出有结构的信息。我们在最近的几个版本中不断优化LangChain
LangGraph 助力代码生成新境界本文译自LangGraph for Code Generation一文。介绍了基于LangGraph流程来实现代码的生成与分析,并详细介绍了方案的性能评估方案。本系列合集,点击链接查看必要链接LangGraph 操作指南研究初衷在大型语言模型(LLMs)的众多应用中,代码生成与分析尤为关键,这从产品 GitHub co-pilot 的广泛应用和 GPT-eng
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号