前言其实早就该写这篇文章的,只是有各种原因耽搁了,一方面是由于确实想好好写,想写一点大家可以用的上的东西,考虑的太多反而不敢下笔;另一方面也是因为一直没想好写哪个方向的内容。本次的 腾讯云大模型知识引擎×DeepSeek 的测评活动一共提供了两个方向:应用搭建模式(低代码) 和 API开发模式(代码态) 。两个方向各有特点,不同的文章创作者适合不同的写作方向。本来是准备写应用搭建模式(低代码)方向
编者按: 你是否曾经用最先进的大语言模型处理企业文档,却发现它把财务报表中的“$1,234.56”读成了“123456”?或者在处理医疗记录时,将“0.5mg”误读为“5mg”?对于依赖数据准确性的运营和采购团队来说,这些问题不仅影响工作效率,更可能导致财务损失、法律风险甚至造成医疗事故。本文深入揭示了大语言模型在 OCR 任务上的根本局限,不只是指出问题,更从技术原理层面详细分析了出现这些问题的
在 Java 开发领域,设计模式一直被视为构建高质量、可维护且具有高扩展性软件系统的关键要素。从经典的单例模式确保一个类仅有一个实例,到工厂模式解耦对象的创建和使用,设计模式为开发者提供了经过实践检验的解决方案。然而,要精通设计模式并非易事,需要开发者花费大量时间去学习、理解和实践,在实际项目中正确应用这些模式更是充满挑战。但如今,飞算 JavaAI 的出现改变了这一局面,让开发者无需精通设计模式
推荐一个可白嫖4090的算力平台
算力过剩的市场,还有能白嫖的平台吗?
哈哈哈。。。最近逛社区博客被安利一个新推出的算力平台Superti,推荐有算力需求想白嫖的小伙伴
主页长这样:
注册立享无门槛代金券,还送一堆优惠卷
亲测有效,亲测有效,亲测有效
已成功通过ollama运行了qwq,
童叟无欺!!!成功白嫖
通过链接访问注册简单几步即可白嫖4090:
https://www.super
编者按: AI 应用如何像智能终端连接配件一样,无缝集成多样化的工具和数据源?答案或许就藏在近期热议的「模型上下文协议(MCP)」中。我们今天带来的这篇文章,作者的核心观点是:MCP 通过标准化通信协议,让 AI 应用与外部工具、数据的交互如同 USB-C 接口一般高效且灵活,彻底改变传统 API 架构的僵化限制。文章详细介绍了 MCP 的核心架构,包括 Host(提供 AI 交互环境的应用程序)
智能体,其实这就是具有智能的实体,以云为基础,以AI为核心,构造一个出色的智能系统。不同于各种AI工具,比如通义千问,文心一言等,自己也可以根据知识储备来构建自己的智能体,这些智能体可能专注于写作、陪聊、英文练习、游戏攻略,属于“术业有专攻型”。今天要构建一个健康饮食推荐的智能体。应用链接:https://bailian.console.aliyun.com/share/089d8662e9ba4
智能体,其实这就是具有智能的实体,以云为基础,以AI为核心,构造一个出色的智能系统。不同于各种AI工具,比如通义千问,文心一言等,自己也可以根据知识储备来构建自己的智能体,这些智能体可能专注于写作、陪聊、英文练习、游戏攻略,属于“术业有专攻型”。今天要构建一个健康饮食推荐的智能体。应用链接:https://bailian.console.aliyun.com/share/089d8662e9ba4
抓包过滤器语法和实例抓包过滤器类型 Type(host、net、port)、方向 Dir(src、dst)、协议 Proto(ether、ip、tcp、udp、http、icmp、ftp 等)、逻辑运算符(&&与、|| 或、!非)1. 协议过滤比较简单,直接在抓包过滤框中直接输入协议名即可。只显示 TCP 协议的数据包列表tcp只查看 HTTP 协议的数据包列
编者按: 为什么说 DeepSeekMoE 的“共享专家隔离”设计,既能保留通用知识又能减少冗余?传统 MoE 的专家真的“专精”吗?传统 MoE 专家易“崩溃”,DeepSeekMoE 如何通过“更细粒度的专家分割”让每个专家专注更小领域,解决负载不均衡问题?作者巧妙地用餐厅厨师的比喻,将抽象的技术概念形象化 —— 是聘用一位熟悉多种菜系的厨师,还是聘用多位各有专长的厨师更明智?随后,文章深入剖
Open-source Code Interpreting for AI Apps — E2B关键字:
e2b.dev、? TLDR :plugin for Dify to integrate with e2b.dev:E2B 是一个开源运行时平台,专注于在安全的云沙箱中执行 AI 生成的代码。
编者按: 模型在生成长序列文本时,键值缓存占用的显存是否让 GPU 不堪重负?如何在保持模型性能的同时有效降低大语言模型推理阶段的内存占用?每一次模型推理,大量重复计算和庞大的内存占用不仅大幅增加了运营成本,还严重限制了模型的批处理能力和响应速度。多查询注意力机制(MQA)和分组查询注意力机制(GQA)虽能部分缓解问题,但往往以牺牲模型性能为代价。DeepSeek 团队在模型优化过程中开发的多头潜
在面对复杂的流量模式时,仅依靠手动分析可能无法满足需求。此时引入人工智能技术可以显著提高效率。
解析 qemu 的命令行,qemu 的命令行解析,就是下面这样一长串。qemu_add_opts(&qemu_drive_opts);
qemu_add_opts(&qemu_chardev_opts);
qemu_add_opts(&qemu_device_opts);
qemu_add_opts(&qemu_netdev_opts);
编者按: 如何有效地为推理模型编写最佳提示词?对于 OpenAI 推出 O1 和 O3-mini 等这些专为深度推理而设计的模型,传统的提示词工程技巧是否仍然适用?
我们今天为大家带来的这篇文章,作者的观点是:推理模型与传统大语言模型在提示词处理方式上有本质不同,需要采用更简洁直接的提示词策略来充分发挥其优势。文章首先深入剖析了 OpenAI 的 O1/O3-mini 与 GPT-4o 三大模型的
Roo Code 是一款集成于 Visual Studio Code (VS Code) 的 AI 编程助手,它通过强大的AI技术为开发者提供了一系列先进的功能,旨在提升编程效率和质量。可以支持各种厂商的API。
编者按: 在使用大语言模型时,如何在保证输出质量的同时降低成本?在众多数据输出格式中,究竟应该如何选择?我们今天为大家带来的文章中,作者通过实际测试给出建议:在某些场景下,相比广泛使用的 JSON 格式,不妨考虑一下其他数据格式,做一些测试,挑选出既能控制成本又能保证稳定性和速度的最佳选项。文章通过对比 TSV、CSV、Columnar JSON、YAML、TOML 和 JSON 六种格式,从 t
使用 cnb.cool 平台一键启动 DeepSeek 的体验可以说是相当流畅和便捷。首先,整个过程从 fork 相关仓库到选择对应的模型分支(如 1.5b/7b/8b/14b/32b/70b),再到进入云原生开发环境,大约只需花费 5 到 10 秒的时间
Beginner's Guide to transforming a model like Llama 3.1 (8B) into a reasoning model by using Unsloth and GRPO.使用 Unsloth 和 GRPO 将 Llama 3.1 (8B) 等模型转换为推理模型的初学者指南。DeepSeek developed GRPO (Group Relativ
编者按: 提到 DeepSeek,大家可能更熟悉 R1 模型 —— 这款以低成本、高性能和开源特性颠覆行业的语言模型,而今天这篇文章介绍的 DeepSeek Janus Pro,通过创新的架构设计,在性能上超越了同领域的众多顶尖专用模型(Janus-Pro 7B 在图像理解和图像生成两方面都超越了 LLaVA、Dalle 3 和 SD XL 这样的主流选手)。本文深入解析了 Janus Pro 的
一夜“刷屏”!3月6日,一款名为“Manus”的AI工具在网络上走红并登上了微博热搜。Manus在其官网上称,Manus是一个通用的AI代理,它能够独立思考、规划并执行复杂任务,直接交付完整成果。据公司介绍,Manus与传统AI助手不同,它能够解决各类复杂多变的任务,不仅能提供建议或答案,能直接交付完整的任务成果,是真正自主的AI Agent。一时之间全网都在要邀请码,一度让官网注册页面崩溃。随后
编者按: AI 落地又一次迎来拐点了吗?当模型蒸馏技术能以零头成本复刻顶尖 AI 性能,传统巨头的商业壁垒是否已形同虚设?我们今天为大家带来的文章,作者的核心观点是:以深度求索(DeepSeek)R1 模型为代表的高效推理技术,正在颠覆 AI 经济的底层规则,推动行业进入“轻量化革命”时代。文章重点围绕三大话题展开:R1 模型的革新性训练方案:通过纯强化学习的 R1-Zero 生成合成数据,结合三
Ollama 部署本地 DeepSeek 模型常用命令整理Ollama 是一个开源的本地 AI 模型管理平台,它允许用户在本地部署和运行各种深度学习模型,包括 DeepSeek 等模型。以下是一些常用的命令整理,帮助你部署和管理本地 DeepSeek 模型。1. 安装 Ollama首先需要安装 Ollama 平台,支持 macOS 和 Linux(目前 Windows 支持有限,具体请参
Changelog | Cursor - The AI Code Editor关键字:
Agent、Web search、MCP(Model Context Protocol)、Yolo模式、claude-3.7-sonnet、claude-3.7-sonnet-thinking? TLDR :1)、Agent(智能体)现在可以在Yolo模式下自动运行MCP(模型上下文协
针对 Windows、Linux、macOS 系统,将 Ollama 及其模型安装到非默认路径的详细指南,分为 安装前、安装后 以及 已部署模型的情况 的配置调整方法















