使用扣子 Coze模板一键快速创作爆款文案卡片 很多人在看到别人发的一些爆款文案的时候感觉特别震撼,透彻的文案内容、精美的排版、丰富的插图。 自媒体时代,如何快速制作爆款且有创意的卡片文案内容?下面一些方法可以帮助到你。
Python — 使用 FastAPI 和 PostgreSQL 构建简单 API 最近一年公司也在卷 LLM 的应用项目,所以我们也从 goper => Pythoner。 这一年使用最多的就是 Python 的 FastAPI 框架。下面一个简易项目让你快速玩转 Python API Web。 API代表应用程序编程接口,是软件开发中最重要的概念之一。它允许程序通过发送和接收数据与其他服务进行交互。API Web 通信最广泛使用的标准之一是 REST,它依赖于JSON 格式或键值对,类似于 Python 的字典。
RAG实操教程:使用LangChain + Llama2 打造你的个人LLM 本文将逐步指导您创建自己的RAG(检索增强生成)系统,使您能够上传自己的PDF文件并向LLM询问有关PDF的信息。本教程侧重于图中蓝色部分,即暂时不涉及Gradio(想了解已接入Gradio的,请参考官网)。相关技术栈包括以下内容: 1. LLM: Llama2 2. LLM API: llama.cpp service 3. Langchain: 4. Vector DB: ChromaDB 5. Embeding: sentence-Tranformers 核心在于 Langchain,它是用于开发由语言模型支持的应用程序的框架。LangChain 就像胶水一样,有各种接口可以连接LLM模型与其他工具和数据源,不过现在 LangChain 正在蓬勃发展中,许多文件或API改版很多。以下我使用最简单的方式示范。
根据用户查询的意图在 RAG 应用程序内路由控制流可以帮助我们创建更有用、更强大的基于检索增强生成 (RAG) 的应用程序。 我们希望用户能够交互的数据很可能来自各种来源,例如报告、文档、图像、数据库和第三方系统。对于基于业务的 RAG 应用程序,我们可能希望使用户能够与来自业务中一系列领域的信息进行交互,例如来自销售、订购和会计系统的信息。
上一篇文章 从 0 开始搞定 RAG 应用(三)路由 , 想要构建一个比较灵活的、功能强大的、可复用的 RAG 应用, 路由的能力是很重要的,它可以动态规划要查询的数据源。 索引在 RAG 也与很重要的一部分内,本文我们主要介绍索引相关的内容。
路由对于我们来说是很熟悉的了。在 RAG 中的路由主要的作用是让 LLM 分析用户 query 的语义,从而帮助我们的应用正确的选择要查找的数据源(向量库、Relation DB等)。
查询转换是一组专注于重写和/或修改问题以进行检索的方法。这篇文章我们继续构建 RAG 应用。RAG 的复杂性体现在对用户的 question 的构建方式和处理方式。所以本文主要讲 query translation 的多种方式。
LLM 已经从最初的研究性转变为实际应用性,尤其在今年各大 LLM 厂商都在研究 LLM 的商业化落地方案(包括我司)。而在各种商业化场景中个人觉得最具有使用价值和最能体现 LLM 的商业化场景就是 RAG 的使用。 什么是 RAG 大家都知道 LLM 的能做的事情很多,但是有一些工作它是无法做到的,那就是领域知识和最新的知识。 领域知识一般指企业里面私有化的数据,因为这部分的知识 LLM 是无法获取和知道的。
豆包MarsCode ,基于豆包 大模型 的智能开发工具,提供 Cloud IDE 及 AI 编程助手两种使用形态,具备代码补全、智能问答、代码解释和代码修复等多项功能,原生的AI能力,让编程变得更加智能化和便捷化。 豆包MarsCode IDE 提供开箱即用的线上开发环境,用户随时随地打开浏览器就能快速进行项目开发。AI 编程助手兼容支持Visual Studio Code、JetBrains IDEs等主流编程工具,支持100+种编程语言。
检索增强生成 (RAG)是一个含义丰富的术语。它向世界许诺,但在开发出 RAG 管道后,我们中的许多人仍然在疑惑,为什么它的效果不如我们预期的那样好。 与大多数工具一样,RAG 易于使用但难以掌握。事实是,RAG 不仅仅是将文档放入矢量数据库并在上面添加 LLM。 这可以奏效,但并不总是如此。 本文中将介绍通常最简单、最快速地实施次优 RAG 管道的解决方案 — 我们将学习重新排序器。
如果你是第一次学习 find 命令,我在之前的教程中介绍了文件搜索的基础知识,并探讨了一些使用 Linux 快速搜索文件的强大命令。如果你没有读过,而且还不熟悉 find,我强烈建议你先看一下,然后再回来这里。 如何搜索某个用户拥有的文件
做 LLM 相关的技术差不多也半年多了。这段时间学习了很多知识,如果时间允许的情况就会写点东西记录下,两个目的: • 记录学习过程和心得,感想 • 总结、分享给网友们,交流学习 这段时间也尝试使用 LLM 相关的技术做了一些东西,这个是 AI 做的儿童睡前故事, 「小书虫讲故事」爱干净的小象波波 - 小书虫讲故事 喜欢的可以看看: 下面的这些文章是我学习过程中给了我很多技术和感想的文章,现在汇总后分享给大家。部分文章取之于网络,如有问题可以私信我。也可以互相交流学习
上一篇文章 使用谷歌 Gemini API 构建自己的 Chat(教程一) 我们介绍了 Gemini 是什么,以及如何使用Gemini 构建一个多模态的聊天场景示例。这一篇我们使用 langchain 与 Gemini 集成构建应用: 将 Langchain 与 Gemini 集成 Langchain已成功将Gemini模型整合到其生态系统中,使用ChatGoogleGenerativeAI类。 启动该过程需要向ChatGoogleGenerativeAI类提供所需的Gemini模型来创建一个llm类。我们调用函数并传递用户输入的内容为参数。 可以通过调用response.content获取生成的响应。 • 在下面的代码中,我们构建了一个最简单的查询。
最近接触到一个非常有趣的挑战,涉及到人工智能数字化大量文件的能力,并使用户可以在这些文件上提出复杂的与数据相关的问题,比如: • 数据检索问题:涉及从数据库中获取特定数据点或数据集,例如“电子产品类别中有多少产品?” 或 “2021年第四季度总销售额是多少?” • 汇总查询:需要对数据进行总结的问题,如计算平均值、求和、计数等,例如“所有已上架产品的平均价格是多少?”或“每个地区客户的总人数是多少?” • 数据关系探索:探究不同数据实体之间关系的问题,比如"哪些客户购买了三种以上不同的产品?" 或 "列出上个月没有交付任何产品的所有供应商。" • 条件查询:涉及条件或筛选器,比如“列出2022年发生在超过500美元交易额以上的所有交易” 或 “展示所有缺货商品。”
什么是 RAG RAG 是retrieval-augmented-generation的缩写,翻译为中文的意思就检索增强,以基于最新,最准确的数据建立LLM 的语料知识库。 LLM 现存的痛点 我们知道 LLM 的知识库是通过现有的网络公开的数据作为数据源来训练的,现在公开的很多模型他们基于的训练数据会比我们现在网络上公开的数据早很多,那自然就会产生一种问题,网络上最新的数据和知识 LLM 是不知道。还有一种情况就是很多企业他们对自己的数据的安全做的很好,也就是私有化数据(这些数据是有价值的,也是企业的立足之本)。这些数据网络上肯定是不存在,那自然 LLM 也是不知道的。 我们在提问LLM 对于一些不知道的知识时候,LLM 很多时候是不知道如何回答问题的。甚至会对我们的问题进行胡诌随机回答,也就是瞎说。
Copyright © 2005-2025 51CTO.COM 版权所有 京ICP证060544号