词元城市 — AI Agent 的完整基础设施。LLM API 聚合路由、Serverless 计算、向量存储,让你专注构建 Agent,不再操心底层。
LLM 调用、计算资源、数据存储 — 三层基础设施,一个平台搞定。
20+ 国内外大模型统一接入,OpenAI 兼容 API。智能路由自动选择最优模型,多 Provider Fallback 保障高可用。
为 Agent 工作流提供 Serverless 计算环境。代码沙箱、函数执行、定时任务 — 无需管理服务器,按调用计费。
内置向量数据库和对象存储。Agent 的记忆、知识库、文件资产,一站式托管,无需额外搭建基础设施。
根据任务类型、成本、延迟自动选择最优模型。编码用 DeepSeek,对话用 Qwen,推理用 GLM — 智能分配每一分钱。
全链路可观测。按 Agent、Session、模型维度追踪用量、成本、延迟,帮你持续优化 Agent 的运行效率。
国产模型价格仅为 GPT-4 的 5%。加上语义缓存、请求合并、模型降级策略,让 Agent 运行成本降到最低。
# 一个 API Key,搞定 Agent 全部基础设施 # LLM 调用 — OpenAI 兼容 curl https://api.tokencity.ai/v1/chat/completions \ -H "Authorization: Bearer tk_your_key" \ -d '{"model": "qwen-plus", "messages": [...]}' # 向量存储 — 知识库检索 curl https://api.tokencity.ai/v1/vectors/query \ -d '{"collection": "docs", "query": "...", "top_k": 5}' # Serverless 函数 — Agent 工作流 curl https://api.tokencity.ai/v1/functions/invoke \ -d '{"name": "web-scraper", "input": {...}}'
从注册到第一次 Agent 调用,快得超乎想象。
Google 登录后在控制台一键生成 API Key,立即可用
OpenAI 兼容格式,替换一行 base_url 即可调用 20+ 大模型
用同一个 Key 访问向量数据库、对象存储和 Serverless 函数
控制台实时查看全链路指标,按需扩展资源,持续优化成本
不只是 LLM API — 我们提供 Agent 运行所需的完整基础设施栈。
持续接入最新模型,为你的 Agent 提供最丰富的模型选择。
全部基础设施统一计费,无最低消费,无隐藏费用。
适合个人开发者和小团队,零门槛启动 Agent 项目。
适合中大型团队,提供专属资源和定制化服务。