书接上文,我在 ollama 中部署 qwen1_5-14b-chat-q4_k_m.gguf 预量化模型,在非 Stream 模式下需要 89 秒才完成一轮问答,响应速度实在是太慢,后续需要想办法进行优化...
本文将记录部署过程中遇到的问题以及解决方式,希望对你有所帮助(open-webui 采用 docker 进行部署)。
本文将采用 GGUF 预量化大模型结合 Ollama 对代码进行修改,给小伙伴们演示如何逐步实现非 GPU 资源的本地整合方案。
今天想分享如何从零开始在不使用第三方工具的前提下,以纯代码的方式本地部署一套大模型,相信这对于技术人员来说还是非常有用的。
之前的文章有写如何获取数据、如何补充数据,也有说如何对数据进行清洗、如何使用结构化数据进行训练。但好像没有说如何将训练数据“入库”。这里说的入库不是指 MySQL 数据库,而是指向量检索库 Milvus。
好久没有更新跟实际应用相关的内容了(主要是因为公司知识产权问题未能立即公开,目前只能挑选一些脱敏内容与各位分享),如标题所示本期将跟大家讲一下如何通过通义千问生成问答数据集的。
今天这篇文章主要是记录 HF-Mirror 的使用过程,官网上提供了 Linux 和 Windows 的使用方式。本人作为 MacOS 用户也将自己的使用办法记录一下,希望能够帮助到其他人。
本文将结合代码讲述如何使用高质量问答数据通过 AutoKeras 的 RNN 神经网络训练问答人工智能的,希望各位喜欢。
忙里偷闲在本地部署了一套 stable-diffusion 来玩玩,虽然 Mac 还是使用 CPU 来生图,但是整体效果(生成时间、生成效果)还是能够接受的,真的感觉到 AI 的实施门槛在降低,走入平常百姓家了
这次主要讲一下我这边关于训练数据的一些数据清洗和提纯的思路,有不够全面的地方请各位指正。
2024年的第一篇博文先填一下坑,这么长时间没有更新其实最近都在学习人工智能方面的内容,这次重新更新会将自己的一些学习笔记和感悟写一下给各位分享,希望各位能够喜欢
今天开始又挖新坑了,后面也会断断续续更新 AutoML 方面相关的内容,就由 AutoKeras 先打响头炮
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号