热门 最新 精选 话题 上榜
在传统编写 App 自动化测试用例的过程中,基本都是需要测试工程师,根据功能测试用例转换为自动化测试的用例。市面上自动生成 Web 或 App 自动化测试用例的产品无非也都是通过录制的方式,获取操作人的行为操作,从而记录测试用例。整个过程类似于但是通常录制出来的用例可用性、可维护性都不强,而且依然需要人手工介入录制的过程。在 LLM 问世之后,我们便在探索,是否有第二种可能性,由大模型执行功能测试
原创 精选 2024-09-19 17:38:46
394阅读
基于LangChain手工测试用例转App自动化测试生成工具
简介ChatGPT 在刚问世的时候,其产品形态就是一个问答机器人。而基于ChatGPT的能力还可以对其做一些二次开发和拓展。比如模拟面试功能、或者智能机器人功能。模拟面试功能包括个性化问题生成、实时反馈、多轮面试模拟、面试报告。智能机器人功能提供24/7客服支持、自然语言处理、任务自动化、多渠道支持和数据分析与报告。智能平台的使用价值而通过人工智能,可以将以上的流程自动化的实现。可以帮助用户:提升
原创 2024-09-18 15:26:54
246阅读
基于ChatGPT开发人工智能服务平台
编者按: 随着2024年被业界誉为“AI PC元年”,各大笔记本电脑厂商纷纷推出搭载NPU的全新AI PC,而在介绍产品性能时,“NPU”一词频频被提及。但NPU和我们所熟知的GPU之间的区别究竟是什么?我们今天为大家分享的这篇文章将和大家一起初探NPU vs GPU。简而言之,NPU专为加速AI任务而设计,包括深度学习和推理,能够高效地处理大量数据,并利用专用存储器快速执行复杂的AI算法。与GP
原创 2024-09-13 10:40:48
351阅读
NPU 与 GPU 相比,有什么差别?| 技术速览
学习目标掌握 ChatGPT Api 的基本使用。L1.ChatGPT 应用L2.GPT 与代码分析结合L3.AutoGPT 与 ChatGPT 插件开发【当前阶段】L4.专属领域大语言模型应用L5.打造企业私有版大语言模型目录简介与官方文档环境准备示例简介学习价值:大部分市面上的人工智能应用都是基于 API 进行封装与改造。为后续开发人工智能应用奠定基础。官方文档:https://platfor
原创 2024-09-12 11:35:57
274阅读
简介Apache JMeter 是一个开源的 Java 应用程序,用于进行性能测试和负载测试。它可以模拟多种协议的负载,被广泛用于测试 Web 应用程序、Web 服务、数据库和其他网络服务的性能。JMeter 的优点纯 Java 程序,跨平台性强:Windows、Mac、Linux开源免费。高可扩展性:支持插件和扩展。可对服务器、网络或对象模拟巨大的负载,进行压力测试。可以用于接口测试。支持分布式
原创 2024-09-11 15:35:24
332阅读
JMeter 介绍与安装
openvino优化模型后,使用Intel ARC a750 GPU本地运行glm-4-9b,运行效果
原创 精选 2024-09-11 11:20:20
945阅读
1点赞
【小白教程】ARC a750本地运行glm-4-9b,运行效果
编者按:您是否曾经遇到这样的情况:明明构建了一个功能强大的 RAG 系统,但用户却频繁抱怨“找不到想要的信息”或“返回的结果不够准确”?这是许多 RAG 应用开发者面临的共同挑战。这个问题不仅会导致用户体验下降,更可能直接影响 RAG 系统的使用率和实际价值。如果未能得到妥善解决,之前的辛苦工作恐将付之东流,甚至影响整个项目的成功。这篇文章并非纸上谈兵,而是源自作者在实际项目中的第一手经验。文章详
原创 精选 2024-09-11 10:15:49
477阅读
1点赞
化“腐朽”为“神奇”:5 种 RAG 优化技术应对千奇百怪的 Query
https://mp.weixin.qq.com/s/aK8s8A2xet7XdiwV4HZ8UAChatOps 的理念由 DevOps 延伸而来,又结合AI(人工智能)落地,可以说是人工智能和新型工作理念结合的产物。它也是一种新型智能工作方式,帮助团队利用 ChatBot 机器人使成员和各项辅助工具连接在一起,以沟通驱动的方式完成工作。同时解决人与人、人与工具、工具与工具之间的信息孤岛问题,从而
原创 2024-09-11 08:33:20
280阅读
ChatOps & AIOps
大纲开源大语言模型大语言模型管理私有大语言模型服务部署方案开源大语言模型担心安全与隐私?可私有部署的开源大模型商业大模型,不支持私有部署ChatGPTClaudeGoogle Gemini百度问心一言开源大模型,支持私有部署MistralMeta LlamaChatGLM阿里通义千问常用开源大模型列表开源大模型分支大语言模型管理大语言模型管理工具HuggingFace 全面的大语言模型管理平台Ol
原创 精选 2024-09-10 16:02:56
389阅读
搭建企业内部的大语言模型系统
https://waytoagi.feishu.cn/wiki/Zb4wwM7UYiTEWKkXfmzcfwxzn7b?from=from_copylink【告别代码门槛】COW微信机器人可视化一键安装工具 & 免费使用Qwen2.5模型教程 (qq.com)COW AI接入到微信 保姆教程 CSDN博客MinerU/docs/README_Ubuntu_CUDA_Acceleration
原创 2024-09-10 11:04:09
882阅读
大纲Hugging-Face 介绍Hugging-Face 大语言模型 LLM 管理Transformers 机器学习框架文本生成推理 (TGI)Hugging FaceHugging-Face -- 大语言模型界的 GithubHugging Face 专门开发用于构建机器学习应用的工具。该公司的代表产品是其为自然语言处理应用构建的 transformers 库,以及允许用户共享机器学习模型和数
原创 精选 2024-09-09 19:14:29
582阅读
1点赞
Hugging Face 的应用
随着人工智能技术的发展,特别是自然语言处理(NLP)领域的进步,基于大模型的对话系统已经成为可能。此类系统不仅可以理解复杂的用户意图,还能提供更加自然、流畅的交互体验。本项目旨在开发一款能够模拟亲密对话的虚拟助手,旨在为用户提供一种新的交流方式。
构建一个亿量级的IP数据库需要兼顾数据存储的效率、检索的速度以及维护的便捷性。以下是构建亿量级IP数据库的主要步骤和建议:1. 数据来源首先,你需要收集海量的IP数据。这些数据可以从以下来源获取:IP地理位置数据库:例如 MaxMind 的 GeoIP、IP2Location 等商业数据库。公共数据源:例如免费IP数据源,如 APNIC、RIPE 等区域互联网注册机构(RIR)。网络流量采集:通过
原创 2024-09-07 11:00:10
437阅读
构建一个亿量级的IP数据库需要兼顾数据存储的效率、检索的速度以及维护的便捷性。以下是构建亿量级IP数据库的主要步骤和建议:1. 数据来源首先,你需要收集海量的IP数据。这些数据可以从以下来源获取:IP地理位置数据库:例如 MaxMind 的 GeoIP、IP2Location 等商业数据库。公共数据源:例如免费IP数据源,如 APNIC、RIPE 等区域互联网注册机构(RIR)。网络流量采集:通过
原创 2024-09-07 10:59:23
456阅读
IntelGPUARC a750本地运行TinyLlama(LLM大语言模型)
原创 2024-09-07 10:36:37
422阅读
 IntelGPU ARC a750本地运行TinyLlama(LLM大语言模型)
面壁智能小钢炮重磅升级 MiniCPM3-4B 开源;字节跳动 Loopy,音频驱动的 AI 视频生成技术丨 RTE 开发者日报 - 掘金 (juejin.cn)Command R 系列更新 编码、数学、推理和延迟方面进行了显著提升Cohere 公司发布了最新版本的 Command - 掘金 (juejin.cn)Jina AI发布 Jina ColBERT v2: 一个多语言的晚期交互信息检索模
原创 2024-09-06 21:48:08
3174阅读
RAGFlow_Update-Tips
要使用大语言模型(如GPT)分析开源代码,比如HyperScan正则开源代码,可以按照以下步骤进行:1. 获取代码库首先,需要从开源平台(如GitHub)下载HyperScan的代码库。你可以使用Git命令克隆代码库:git clone https://github.com/intel/hyperscan.git2. 分块处理代码由于大语言模型在一次请求中只能处理有限的字符数,代码库可能很大,因此
原创 精选 2024-09-06 15:27:59
2302阅读
编者按: AI 能立即改变世界吗?为何巨额投资却难见成效?你是否也在思考:我们开发的 AI 产品真的解决了用户的需求吗?面对这些问题,许多公司陷入了困境:要么过于专注模型开发而忽视实际应用,要么盲目将 AI 融入产品而不考虑是否需要。这不仅导致资源浪费,更可能使我们错失 AI 真正的价值所在。本文深入剖析了 AI 从实验室走向市场的五大障碍,包括使用成本、产品可靠性、隐私问题、产品安全和用户界面。
原创 2024-09-05 10:04:12
128阅读
“创造神迹” -> “打造利器”:AI 从实验室走向市场的五大障碍
Mistral AIMistral AI teamMistral AI 是一家销售人工智能产品的法国公司。它由 Meta Platforms 和 Google DeepMind 的前员工于 2023 年 4 月创立。该公司于 2023 年 10 月筹集了 3.85 亿欧元,2023 年 12 月估值超过 20 亿美元Mistral.AI 愿景与使命我们是一个具有高科学标准的小型创意团队。我们通过突
原创 精选 2024-09-03 12:07:39
577阅读
Mistral 大语言模型
llama 大模型介绍我们介绍 LLaMA,这是一个基础语言模型的集合,参数范围从 7B 到 65B。我们在数万亿个Token上训练我们的模型,并表明可以专门使用公开可用的数据集来训练最先进的模型,而无需诉诸专有的和无法访问的数据集。特别是,LLaMA-13B 在大多数基准测试中都优于 GPT-3 (175B),llama2 大模型介绍我们开发并发布了 Llama 2,这是一组经过预训练和微调的大
原创 2024-09-02 11:35:03
209阅读
MetaLlama大模型
在传统编写 Web 自动化测试用例的过程中,基本都是需要测试工程师,根据功能测试用例转换为自动化测试的用例。市面上自动生成 Web 或 App 自动化测试用例的产品无非也都是通过录制的方式,获取操作人的行为操作,从而记录测试用例。整个过程类似于但是通常录制出来的用例可用性、可维护性都不强,而且依然需要人手工介入录制的过程。在 LLM 问世之后,我们便在探索,是否有第二种可能性,由大模型执行功能测试
原创 精选 2024-08-29 18:44:19
432阅读
基于LangChain手工测试用例转Web自动化测试生成工具
ChatGLM 大模型ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训
原创 2024-08-28 17:24:36
258阅读
编者按:目前 AI Agents 在各行各业的应用前景广阔,越来越多的企业开始尝试部署 AI Agents ,然而如何在企业生产环境中有效部署和管理 AI Agents,是工程师们面临的一大挑战。你是否曾面临这样的困惑:如何确保 AI Agents 在生产环境中稳定可靠地运行?如何应对突发的高并发请求?当 AI Agents 出现"幻觉"或系统崩溃时,又该如何快速恢复?本文提出了 "Multi-A
原创 精选 2024-08-28 10:15:31
351阅读
从工程师视角看 “Multi-Agent as a Service (MAaaS)”
简介在前面的学习过程中,已经了解到了 AutoGPT 基本的环境安装操作。接下来就可以基于 AutoGPT 完成一些有趣的任务。通过 AutoGPT 实现我们的需求环境准备在正式使用 AutoGPT 之前,确认以下环境没有任何问题:稳定的上网环境。配置好的 AutoGPT 环境。可以使用的 token。如果还没有配置好环境,请参考章节 AutoGPT 理念与应用 优先完成环境配置。实践演练接下来需
原创 2024-08-27 12:14:49
123阅读
实现定制化 AutoGPT 实战
简介在 ChatGPT 问世之后,大家很容易就发现其依然具备一些很难解决的问题,比如:Token 超出限制怎么办?(目前最新的 GPT4 支持最多 8,192 tokens)。如何完全自动化?任务需要多步串联,仍需要人工介入。如何集成外部能力?比如搜索,运行脚本、爬取网站等等。无法获取最新数据怎么办?最新的 GPT4 的训练数据时效为 Sep 2021。而 AutoGPT 的目标就是基于 GPT4
原创 2024-08-26 18:17:41
252阅读
slimGitHub - slimtoolkit/slim: Slim(toolkit): Don't change anything in your container image and minify it by up to 30x (and for compiled languages even more) making it secure too! (free and op
原创 2024-08-25 18:05:31
112阅读
RAGRAG(Retrieval-Augmented Generation,检索增强生成)是一种结合了信息检索和生成模型的技术,它通过引入外部知识库来解决知识密集型的自然语言处理任务,例如问答和文本摘要等。RAG技术的核心在于两个阶段:检索阶段和生成阶段。 1. 检索阶段:模型从外部知识库中检索与输入文本相关的信息。这个知识库可以是大规模文本数据集的索引数据库。 2.&nbsp
原创 2024-08-23 14:11:18
409阅读
import requests import json url = "http://localhost:11434/api/generate" headers = { "Content-Type": "application/json" } data = { "model": "qwen2:0.5b", "prompt": "Why is the sky blac
原创 精选 2024-08-22 14:19:33
1345阅读
编者按:随着大语言模型(LLMs)规模的不断扩大,如何在有限的计算资源下高效部署这些模型成为了一个迫切需要解决的问题。模型量化作为一种有效的模型压缩技术,在保持模型性能的同时大大降低了计算和存储开销,因此广受关注。但对于许多人来说,模型量化的具体原理和实现方法仍然是一个“黑盒”。我们今天为大家带来的这篇文章,通过可视化图示详细解析各种模型量化技术的原理和实现方法,为各位读者提供一个全面且直观的模型
原创 精选 2024-08-22 10:22:56
556阅读
1点赞
yyds干货盘点
「模型量化技术」可视化指南:A Visual Guide to Quantization
简介GitHub Copilot 是一款 AI 结对程序员,可帮助您更快、更少地编写代码。它从注释和代码中提取上下文,以立即建议单独的行和整个函数。GitHub Copilot 由 GitHub、OpenAI 和 Microsoft 开发的生成式 AI 模型提供支持。它可作为 Visual Studio Code、Visual Studio、Neovim 和 JetBrains 集成开发环境 (I
原创 2024-08-21 17:55:07
150阅读