使用扣子 Coze模板一键快速创作爆款文案卡片 很多人在看到别人发的一些爆款文案的时候感觉特别震撼,透彻的文案内容、精美的排版、丰富的插图。 自媒体时代,如何快速制作爆款且有创意的卡片文案内容?下面一些方法可以帮助到你。
Python — 使用 FastAPI 和 PostgreSQL 构建简单 API 最近一年公司也在卷 LLM 的应用项目,所以我们也从 goper => Pythoner。 这一年使用最多的就是 Python 的 FastAPI 框架。下面一个简易项目让你快速玩转 Python API Web。 API代表应用程序编程接口,是软件开发中最重要的概念之一。它允许程序通过发送和接收数据与其他服务进行交互。API Web 通信最广泛使用的标准之一是 REST,它依赖于JSON 格式或键值对,类似于 Python 的字典。
RAG实操教程:使用LangChain + Llama2 打造你的个人LLM 本文将逐步指导您创建自己的RAG(检索增强生成)系统,使您能够上传自己的PDF文件并向LLM询问有关PDF的信息。本教程侧重于图中蓝色部分,即暂时不涉及Gradio(想了解已接入Gradio的,请参考官网)。相关技术栈包括以下内容: 1. LLM: Llama2 2. LLM API: llama.cpp service 3. Langchain: 4. Vector DB: ChromaDB 5. Embeding: sentence-Tranformers 核心在于 Langchain,它是用于开发由语言模型支持的应用程序的框架。LangChain 就像胶水一样,有各种接口可以连接LLM模型与其他工具和数据源,不过现在 LangChain 正在蓬勃发展中,许多文件或API改版很多。以下我使用最简单的方式示范。
根据用户查询的意图在 RAG 应用程序内路由控制流可以帮助我们创建更有用、更强大的基于检索增强生成 (RAG) 的应用程序。 我们希望用户能够交互的数据很可能来自各种来源,例如报告、文档、图像、数据库和第三方系统。对于基于业务的 RAG 应用程序,我们可能希望使用户能够与来自业务中一系列领域的信息进行交互,例如来自销售、订购和会计系统的信息。
上一篇文章 从 0 开始搞定 RAG 应用(三)路由 , 想要构建一个比较灵活的、功能强大的、可复用的 RAG 应用, 路由的能力是很重要的,它可以动态规划要查询的数据源。 索引在 RAG 也与很重要的一部分内,本文我们主要介绍索引相关的内容。
路由对于我们来说是很熟悉的了。在 RAG 中的路由主要的作用是让 LLM 分析用户 query 的语义,从而帮助我们的应用正确的选择要查找的数据源(向量库、Relation DB等)。
查询转换是一组专注于重写和/或修改问题以进行检索的方法。这篇文章我们继续构建 RAG 应用。RAG 的复杂性体现在对用户的 question 的构建方式和处理方式。所以本文主要讲 query translation 的多种方式。
LLM 已经从最初的研究性转变为实际应用性,尤其在今年各大 LLM 厂商都在研究 LLM 的商业化落地方案(包括我司)。而在各种商业化场景中个人觉得最具有使用价值和最能体现 LLM 的商业化场景就是 RAG 的使用。 什么是 RAG 大家都知道 LLM 的能做的事情很多,但是有一些工作它是无法做到的,那就是领域知识和最新的知识。 领域知识一般指企业里面私有化的数据,因为这部分的知识 LLM 是无法获取和知道的。
豆包MarsCode ,基于豆包 大模型 的智能开发工具,提供 Cloud IDE 及 AI 编程助手两种使用形态,具备代码补全、智能问答、代码解释和代码修复等多项功能,原生的AI能力,让编程变得更加智能化和便捷化。 豆包MarsCode IDE 提供开箱即用的线上开发环境,用户随时随地打开浏览器就能快速进行项目开发。AI 编程助手兼容支持Visual Studio Code、JetBrains IDEs等主流编程工具,支持100+种编程语言。
检索增强生成 (RAG)是一个含义丰富的术语。它向世界许诺,但在开发出 RAG 管道后,我们中的许多人仍然在疑惑,为什么它的效果不如我们预期的那样好。 与大多数工具一样,RAG 易于使用但难以掌握。事实是,RAG 不仅仅是将文档放入矢量数据库并在上面添加 LLM。 这可以奏效,但并不总是如此。 本文中将介绍通常最简单、最快速地实施次优 RAG 管道的解决方案 — 我们将学习重新排序器。
如果你是第一次学习 find 命令,我在之前的教程中介绍了文件搜索的基础知识,并探讨了一些使用 Linux 快速搜索文件的强大命令。如果你没有读过,而且还不熟悉 find,我强烈建议你先看一下,然后再回来这里。 如何搜索某个用户拥有的文件
做 LLM 相关的技术差不多也半年多了。这段时间学习了很多知识,如果时间允许的情况就会写点东西记录下,两个目的: • 记录学习过程和心得,感想 • 总结、分享给网友们,交流学习 这段时间也尝试使用 LLM 相关的技术做了一些东西,这个是 AI 做的儿童睡前故事, 「小书虫讲故事」爱干净的小象波波 - 小书虫讲故事 喜欢的可以看看: 下面的这些文章是我学习过程中给了我很多技术和感想的文章,现在汇总后分享给大家。部分文章取之于网络,如有问题可以私信我。也可以互相交流学习
上一篇文章 使用谷歌 Gemini API 构建自己的 Chat(教程一) 我们介绍了 Gemini 是什么,以及如何使用Gemini 构建一个多模态的聊天场景示例。这一篇我们使用 langchain 与 Gemini 集成构建应用: 将 Langchain 与 Gemini 集成 Langchain已成功将Gemini模型整合到其生态系统中,使用ChatGoogleGenerativeAI类。 启动该过程需要向ChatGoogleGenerativeAI类提供所需的Gemini模型来创建一个llm类。我们调用函数并传递用户输入的内容为参数。 可以通过调用response.content获取生成的响应。 • 在下面的代码中,我们构建了一个最简单的查询。
最近接触到一个非常有趣的挑战,涉及到人工智能数字化大量文件的能力,并使用户可以在这些文件上提出复杂的与数据相关的问题,比如: • 数据检索问题:涉及从数据库中获取特定数据点或数据集,例如“电子产品类别中有多少产品?” 或 “2021年第四季度总销售额是多少?” • 汇总查询:需要对数据进行总结的问题,如计算平均值、求和、计数等,例如“所有已上架产品的平均价格是多少?”或“每个地区客户的总人数是多少?” • 数据关系探索:探究不同数据实体之间关系的问题,比如"哪些客户购买了三种以上不同的产品?" 或 "列出上个月没有交付任何产品的所有供应商。" • 条件查询:涉及条件或筛选器,比如“列出2022年发生在超过500美元交易额以上的所有交易” 或 “展示所有缺货商品。”
什么是 RAG RAG 是retrieval-augmented-generation的缩写,翻译为中文的意思就检索增强,以基于最新,最准确的数据建立LLM 的语料知识库。 LLM 现存的痛点 我们知道 LLM 的知识库是通过现有的网络公开的数据作为数据源来训练的,现在公开的很多模型他们基于的训练数据会比我们现在网络上公开的数据早很多,那自然就会产生一种问题,网络上最新的数据和知识 LLM 是不知道。还有一种情况就是很多企业他们对自己的数据的安全做的很好,也就是私有化数据(这些数据是有价值的,也是企业的立足之本)。这些数据网络上肯定是不存在,那自然 LLM 也是不知道的。 我们在提问LLM 对于一些不知道的知识时候,LLM 很多时候是不知道如何回答问题的。甚至会对我们的问题进行胡诌随机回答,也就是瞎说。
AI领域一直由OpenAI和微软等公司主导,而Gemini则崭露头角,以更大的规模和多样性脱颖而出。它被设计用于无缝处理文本、图像、音频和视频;这些基础模型重新定义了人工智能交互的边界。随着谷歌在人工智能领域强势回归,了解Gemini如何重新定义了人机交互的格局,展示了AI驱动创新未来的一脚。 在本文中,我们将获取免费Google API密钥、安装必要依赖项以及编写代码来构建超越传统文本交互的智能聊天机器人的过程。 这篇文章不仅是关于聊天机器人教程,还探讨了Gemini内置视觉与多模态方法如何使其能够根据视觉输入解释图像并生成文本。
儿童绘本 Bot 的功能介绍: 嘿,小朋友们!我是你们的小小侦探?️♀️哟!我可厉害啦,就像柯南一样聪明,能把复杂的问题都拆成一个个小问题来解决哦。不管你们遇到什么难题,都可以来哦,让我们一起开动小脑筋,养成好习惯,变得超级厉害吧!
RAG优化技巧 | 7大挑战与解決方式 | 提高你的LLM: 下篇 上一篇我们谈论 RAG优化技巧 | 7大挑战与解决方式 | 提高你的LLM:上篇 RAG 的优化技巧,这一篇我们继续谈论剩余的内容: 在当今快速发展的人工智能领域,大型语言模型(LLM)已经成为无处不在的技术,它们不仅改变了我们与机器交流的方式,还在各行各业中发挥着革命性的影响。
在当今快速发展的人工智能领域,大型语言模型(LLM)已经成为无处不在的技术,它们不仅改变了我们与机器交流的方式,还在各行各业中发挥着革命性的影响。
向量数据库已成为存储和索引非结构化和结构化数据表示的首选位置。这些表示称为向量嵌入,是由嵌入模型生成的。向量存储在利用深度学习模型(尤其是大型语言模型)的应用程序开发中发挥着至关重要的作用。
Alchemy 的真实情况是: • 它的学习曲线比 Django ORM 更陡峭 • 需要一些示例代码 • 你需要了解一些较低层次的概念 • 有一些难以理解的文档 如果您确实使用 `SQLAlchemy`,则必须为 `Celery` 任务编写一些示例文件,其中包含风险意大利面条代码。
作为Python开发者,我们经常遇到需要从各种来源和格式(如 PDF、CSV、HTML等)中提取数据的情况。在这篇文章中,我们将深入研究从PDF文件中解析数据,并介绍一些对解析其他数据格式有用的 Python 包。 用Python解析PDF文件 PDF是一种标准文件格式,广泛用于共享和打印文件。不幸的是,由于其复杂的结构,当涉及到数据提取时,它并不是最容易的格式。幸运的是,Python提供了几个库,可以帮助我们从PDF文件中提取数据,比如PyPDF2和PDFMiner。
LLM 中什么是Prompts?如何使用LangChain 快速实现Prompts 一 Prompt是一种基于自然语言处理的交互方式,它通过机器对自然语言的解析,实现用户与机器之间的沟通。 Prompt主要实现方式是通过建立相应的语料库和语义解析模型,来将自然语言转换为机器可识别的指令。 Prompt是一种计算机编程语言,它被广泛用于自然语言处理(NLP)和人工智能(AI)领域。
一. 为什么要用 RAG ? 如果使用 pretrain 好的 LLM 模型,应用在你个人的情境中,势必会有些词不达意的地方,例如问 LLM 你个人的信息,那么它会无法回答;这种情况在企业内部也是一样,例如使用 LLM 来回答企业内部的规章条款等。 这种时候主要有三种方式来让 LLM 变得更符合你的需求: 1. Promt Enginerring: 输入提示来指导 LLM 产生所需回应。 例如常见的 In-context Learning,通过在提示中提供上下文或范例,来形塑模型的回答方式。 例如,提供特定回答风格的示例或包含相关的情境信息,可以引导模型产生更合适的答案。 2. **Fine tuning:** 这个过程包括在特定数据集上训练 LLM,使其响应更符合特定需求。 例如,一家公司可能会使用其内部文件 Fine tuning ChatGPT ,使其能够更准确地回答关于企业内部规章条款等。 然而,Fine tuning需要代表性的数据集且量也有一定要求,且 Fine tuning 并不适合于在模型中增加全新的知识,或应对那些需要快速迭代新场景的情况。
什么是可扩展性-如何设计一个扩展性强的系统 一 系统设计中非常重要的概念之一就是可扩展性。 在系统设计中,可扩展性是指系统使其性能和成本适应应用程序和系统处理需求的新变化的能力。 用于构建服务、网络和流程的架构在以下两个条件下是可扩展的: 1. 当需求/工作量增加时轻松添加资源。 2. 当需求/工作负载减少时,轻松删除资源。 可扩展性基本上是衡量系统对资源添加和删除以满足我们的要求的响应能力的指标。这也就是我们在开发系统的时候对系统进行需求分析,并确保系统具有适应性和可扩展性的中药作用。
这些神经元中的每一个都以突触的复杂排列与其他神经元相连。现在,你想知道这与人工神经网络有什么关系吗?好吧,人工神经网络是以人脑中的神经元为模型的。让我们详细看看它们是什么以及它们如何学习信息。
普通人如何利用 AI 来提升工作效率? 从 2022 年的 OpenAI 的ChatGPT3.5发布,AI 技术迅速火遍全宇宙。全人类开始都在讨论 AI 技术的未来和人类自己的未来。比如“AI 是否能够替代人类”、“AI 究竟是什么?”、“AI是否能增加每个人的失业风险”、“安全与隐私问题如何平衡”、“AI 是否会导致社会的不平等问题加剧?”等等的话题。
在设计系统时,您将面临的最关键的系统设计选择之一是选择合适的数据库管理系统(DBMS)。SQL 与 NoSQL 数据库之间的选择可以极大地影响系统的整体性能、可扩展性和通常的成功。这就是为什么我们在系统设计中详细比较了SQL 与 NoSQL 数据库,以帮助您在设计可扩展系统时确定选择哪个数据库。我们还将讨论 SQL 或 NoSQL 数据库更适合的可能性、NoSQL 数据库的类型以及各种 SQL 服务器配置。
Copyright © 2005-2025 51CTO.COM 版权所有 京ICP证060544号