Vercel 正式发布了面向生产环境的 AI Gateway。这个服务提供了一个统一的 API 接口,开发者可以通过它调用各种大语言模型和生成式模型,从而简化集成和管理过程。

AI Gateway 让应用能够通过同一个端点向多个模型提供商发送推理请求。它支持“自带密钥”认证,开发者可以直接使用自己在 OpenAIAnthropicGoogle 等平台申请的 API key,而无需额外支付代币溢价。网关还提供稳定的请求路由,延迟低于 20 毫秒,确保无论底层使用哪个提供商,推理时间都保持一致。

系统的核心功能之一是故障转移机制。如果某个模型提供商出现宕机,网关会自动把请求切换到可用的其他模型,减少服务中断。同时它支持高并发请求,速率限制也面向生产级流量进行了设计。

平台还内置了可观测性功能。开发者可以查看每个请求的详细日志、性能指标和成本数据,用来分析使用模式、监控响应时间,并了解不同模型提供商之间的费用分布。通过 AI SDK 集成时,只需要在配置中指定模型标识即可发起请求。

Vercel 表示,AI Gateway 已经在内部用于支撑 v0.app,这项服务已经为数百万用户提供过支持。随着此次发布,Vercel 将这一基础设施正式开放给外部开发者,并针对生产环境做了优化。

一个类似的服务是 OpenRouter,它同样为不同的 AI 模型提供商提供统一接口。OpenRouter 更强调模型发现和跨厂商的价格透明,而 Vercel 的 AI Gateway 则侧重低延迟路由、内置的故障转移机制,以及与其现有开发工具和托管环境的集成。两者的共同目标都是简化多模型接入,但在开发体验和基础设施可靠性上各有侧重。

XReddit 上,开发者的反馈既有对其简洁性和灵活性的好评,也有对免费额度限制和部分模型接入的吐槽。

eToro 的技术负责人 Filipe Sommer 评论道:

太棒了!能否多解释下故障转移机制?在博客和文档里没找到太多说明。是不是说,比如 Gemini 模型不可用时,会自动切换到其他模型?

AI 专家 Himanshu Kumar 则表示:

在保证速度和可靠性的前提下,让 AI 接入更加普惠 —— 这是一次重要的进步,有望推动新一波 AI 应用的出现。

开发者 Melvin Arias 提出了一个实际问题:

它的定价和 OpenRouter 相比怎么样?

Vercel 将 AI Gateway 的正式发布定位为其 AI 应用开发工具生态中的重要组成部分,重点在于路由、稳定性和监控,而不是提供自研模型。