一、新闻概述
发布日期:2025年10月6日(OpenAI Dev Day 2025)
撰写时间:2025年10月7日
OpenAI 在旧金山举办的年度开发者大会 Dev Day 2025 上,正式发布了 ChatGPT App SDK,并宣布 ChatGPT 平台开放为一个可运行第三方应用的完整AI环境。
这一发布标志着 ChatGPT 从自然语言模型向“AI应用运行层(AI Operating Layer)”的演化。
首批合作方包括 Canva、Spotify、Zillow 等。开发者可以直接在 ChatGPT 对话中构建、运行并分发应用,无需跳转或安装。
主要更新内容
| 模块 | 技术说明 |
|---|---|
| ChatGPT App SDK | 提供构建和注册第三方ChatGPT应用的完整框架。 |
| Model Context Protocol (MCP) | 模型与外部逻辑的语义通信协议,实现语义一致与安全执行。 |
| Instant Checkout API | 在对话中完成支付、订阅、下单等交易。 |
| App Directory | 内嵌应用市场,支持搜索、安装与权限管理。 |
| Contextual Invocation System | 模型可根据语义自动推荐或调用合适的应用。 |
| AgentKit 与 Codex 更新 | 支持多代理系统与自动化任务链的构建。 |
二、系统架构与运行机制
2.1 总体架构
ChatGPT App SDK 采用 模型中心化架构(Model-Centric Architecture),以 LLM 作为系统核心,融合自然语言理解、任务执行与上下文管理:
ChatGPT Runtime
│
├── Natural Language Interface (Chat Layer)
├── Context Manager (Memory + State Control)
├── Model Context Protocol (MCP)
│
├── App SDK Layer (Developer API + UI Toolkit)
│ • Interactive Components (Forms, Cards)
│ • Semantic Action Handler (API Binding)
│ • Context Hook (State Bridge)
│
└── External Integrations (APIs, Databases)
模型通过 MCP 协议与外部逻辑通信,生成中间层调用指令(Action Descriptor),由 SDK 执行并在对话界面渲染结果。
2.2 Model Context Protocol (MCP) 技术细节
MCP 是该架构的核心机制,用于保证语义一致性、执行安全性和上下文稳定性:
| 技术问题 | MCP 解决方案 |
|---|---|
| 上下文同步 | 建立共享状态层(Shared Context Layer)以维护多轮语义一致性。 |
| 执行抽象化 | 模型生成中间指令(Action Descriptor),SDK验证后执行。 |
| 安全控制 | 权限边界与访问令牌机制防止越权操作。 |
MCP 的设计使 ChatGPT 具备“语义级应用调度能力”,实现从自然语言到功能调用的闭环。
三、与传统插件架构的对比
| 对比项 | 旧版插件(Plugins) | 新版 App SDK |
|---|---|---|
| 通信机制 | REST API 调用 | 内部 MCP 通信 |
| 界面表现 | 仅文本输出 | 支持交互式组件(表单、图表) |
| 状态管理 | 临时会话缓存 | 长期上下文管理 |
| 调用机制 | 静态命令 | 动态语义触发 |
| 性能延迟 | 网络调用延迟高 | 内部通信延迟低 |
ChatGPT App SDK 解决了传统插件的上下文丢失与UI交互受限问题,实现模型与应用的深度整合。
四、技术与商业影响
4.1 对开发者生态的影响
- 开发者可直接在 ChatGPT 内创建和分发应用,无需移动端商店。
- SDK 提供可视化UI组件与语义接口,显著降低开发门槛。
- 模型可根据对话语义主动调用应用,形成“语义分发”机制。
- 支持闭环支付体系,实现从请求到交易的全流程。
4.2 对传统平台的冲击
| 领域 | 受影响平台 | 潜在变化 |
|---|---|---|
| 应用分发 | Apple App Store / Google Play | 分发路径去中心化 |
| 搜索与广告 | Google / Bing | 用户停留在ChatGPT环境内完成信息检索与购买 |
| SaaS 工具 | Notion / Jasper | 功能性应用面临被ChatGPT整合风险 |
| 企业软件 | Salesforce / Slack | ChatGPT可能成为统一的任务入口层 |
五、技术挑战与风险
| 类别 | 风险说明 |
|---|---|
| 安全性 | 模型与应用共享上下文,需强隔离机制。 |
| 性能 | 高并发可能引发上下文溢出与延迟。 |
| 隐私合规 | 需满足GDPR等隐私要求。 |
| 平台治理 | 需建立应用审核与信誉机制。 |
六、总体评估
| 维度 | 评估 |
|---|---|
| 技术创新 | 高:首次实现模型与应用逻辑的语义耦合。 |
| 开发者友好 | 中高:封装完善但需AI上下文理解能力。 |
| 市场潜力 | 极高:具备形成AI应用生态的条件。 |
| 风险等级 | 中等:生态与安全机制待成熟。 |
七、与微信小程序的技术架构比较
7.1 系统定位对比
| 项目 | ChatGPT App SDK | 微信小程序 |
|---|---|---|
| 核心定位 | AI语义运行环境 | 社交平台轻量应用容器 |
| 用户入口 | 自然语言对话 | 图形界面交互 |
| 运行逻辑 | LLM语义执行 | JS事件驱动 |
| 上下文机制 | MCP协议 | Session缓存 |
| 调用方式 | 模型触发 | 用户触发 |
ChatGPT 的运行逻辑以“语言理解”为核心,而微信小程序以“事件操作”为核心。
7.2 技术架构对比
| 层级 | ChatGPT App SDK | 微信小程序 |
|---|---|---|
| 前端层 | 内嵌UI组件(表单、卡片) | WXML + WXSS |
| 逻辑层 | MCP语义通信 | JavaScript逻辑执行 |
| 状态层 | Context Manager | Session Storage |
| 安全层 | 模型沙箱 + Token机制 | Web沙箱 + API权限控制 |
| 性能特征 | 推理延迟为主 | 网络与渲染延迟为主 |
ChatGPT 属于 AI原生语义计算架构(AI-Native Semantic Architecture),
而微信小程序是 UI容器化架构(UI-Container Architecture)。
7.3 生态差异
| 维度 | ChatGPT App SDK | 微信小程序 |
|---|---|---|
| 应用分发 | 模型推荐 + App Directory | 搜索、分享、二维码 |
| 开发语言 | Python / JavaScript | WXML / JS |
| 支付系统 | Instant Checkout | WeChat Pay |
| 用户体系 | OpenAI账户 | WeChat ID |
| 生态模式 | 全球开放 | 中国本地化闭环 |
前者以语义为驱动,后者以社交为驱动。
7.4 总结
| 层面 | 主导机制 | 特征 | 优势 | 限制 |
|---|---|---|---|---|
| ChatGPT App SDK | 语义驱动 | MCP协议 | 智能化、自适应、跨平台 | UI自由度低、依赖模型性能 |
| 微信小程序 | 事件驱动 | 前端容器架构 | 成熟稳定、可高度定制 | 无语义理解能力、生态封闭 |
结论:
WeChat 小程序代表移动互联网架构的顶点,
ChatGPT App SDK 则代表AI语义架构的起点。
二者的差异不在功能,而在计算范式:
一个以“事件”为核心,一个以“语义”为核心。
八、结论
OpenAI 于 2025 年 10 月 6 日发布的 ChatGPT App SDK,标志着AI平台化进入新阶段。
通过 MCP协议,ChatGPT 已从纯语言模型演进为具备运行、分发、交易三大能力的AI操作层。
该机制不仅重塑了开发流程,也在全球范围内重构了应用生态。
从架构角度看,ChatGPT App SDK 实现了语义理解与执行逻辑的统一;
从产业角度看,它重塑了人机交互和软件分发的方式。
这一转变意味着:
软件的未来,不再以点击为中心,而将以语义为中心。
对话,不只是交流形式,而是新的操作系统。
OpenAI Launches ChatGPT App SDK: Transitioning from Language Model to Application Runtime Platform
1. Overview
Release Date: October 6, 2025 (OpenAI Dev Day 2025)
Report Date: October 7, 2025
At its annual Dev Day 2025 in San Francisco, OpenAI launched the ChatGPT App SDK, opening ChatGPT as a fully functional environment for running third-party applications.
This marks ChatGPT’s evolution from a conversational model into an AI application runtime layer.
Early partners include Canva, Spotify, and Zillow, demonstrating use cases such as content generation, media creation, and transactional booking within ChatGPT.
Key Announcements
| Module | Description |
|---|---|
| ChatGPT App SDK | Framework for building, running, and distributing apps directly inside ChatGPT. |
| Model Context Protocol (MCP) | Standard protocol for semantic communication between model and logic layers. |
| Instant Checkout API | Enables in-chat commerce transactions. |
| App Directory | Built-in app marketplace for discovery and permissions. |
| Contextual Invocation System | Allows context-aware app recommendation and activation. |
| AgentKit & Codex Updates | Support multi-agent automation and developer toolchains. |
2. System Architecture and Runtime Mechanism
2.1 System Overview
ChatGPT App SDK follows a Model-Centric Architecture, where the LLM orchestrates interaction, execution, and state:
ChatGPT Runtime
│
├── Natural Language Interface (Chat Layer)
├── Context Manager (Memory + State Control)
├── Model Context Protocol (MCP)
│
├── App SDK Layer (Developer API + UI Toolkit)
│ • Interactive Components (Forms, Cards)
│ • Semantic Action Handler (API Binding)
│ • Context Hook (State Bridge)
│
└── External Integrations (APIs, Databases)
Through MCP, the model generates verified “Action Descriptors” for execution, maintaining semantic integrity and secure control.
2.2 Model Context Protocol (MCP) Technical Details
| Problem | MCP Solution |
|---|---|
| Context Synchronization | Shared state layer ensures consistent multi-turn semantics. |
| Execution Abstraction | Intermediate Action Descriptors validated by the SDK. |
| Security Isolation | Permission tokens and sandbox enforcement. |
MCP provides the foundation for semantic-level orchestration, enabling consistent execution across conversations.
3. Comparison with Previous Plugin Architecture
| Aspect | Previous Plugin | ChatGPT App SDK |
|---|---|---|
| Communication | REST API | Internal MCP |
| UI Support | Text-only | Interactive components |
| State Management | Temporary cache | Persistent context manager |
| Invocation | Static commands | Semantic triggers |
| Latency | Higher | Lower (internal runtime) |
The SDK eliminates fragmentation between chat and app logic, enabling seamless conversational execution.
4. Technical and Business Implications
4.1 Developer Ecosystem Impact
- Enables direct in-chat app deployment without app-store dependency.
- Unified SDK reduces UI and logic development effort.
- Contextual activation improves discoverability and automation.
- Integrated payment API supports full conversational commerce.
4.2 Market Disruption
| Domain | Impacted Platforms | Potential Impact |
|---|---|---|
| App Distribution | Apple App Store / Google Play | New decentralized distribution layer |
| Search & Ads | Google / Bing | Reduced web traffic to external pages |
| SaaS Tools | Notion / Jasper | Functional overlap and replacement risk |
| Enterprise Systems | Salesforce / Slack | ChatGPT as unified orchestration layer |
5. Technical Risks and Challenges
| Category | Risk Description |
|---|---|
| Security | Shared context may expose sensitive data without isolation. |
| Performance | High concurrency can cause latency or context overflow. |
| Compliance | Must meet GDPR and privacy standards. |
| Governance | Requires app review and trust mechanisms. |
6. Evaluation
| Dimension | Assessment |
|---|---|
| Technical Innovation | High – semantic model-app coupling. |
| Developer Accessibility | Medium-high – structured yet requires AI context understanding. |
| Market Potential | Very high – foundation for AI-native app ecosystem. |
| Risk Level | Moderate – ecosystem and performance maturity required. |
7. Comparison with WeChat Mini-Program Architecture
7.1 System Positioning
| Aspect | ChatGPT App SDK | WeChat Mini-Program |
|---|---|---|
| Core Model | AI-semantic runtime | Lightweight social app container |
| User Entry | Natural language dialogue | GUI actions |
| Execution Logic | Model-driven | Event-driven |
| Context Mechanism | MCP protocol | Session storage |
| Invocation | Model-triggered | User-triggered |
ChatGPT’s execution is language-centric, while WeChat’s is event-centric.
7.2 Architectural Comparison
| Layer | ChatGPT App SDK | WeChat Mini-Program |
|---|---|---|
| Front-End | Embedded components | WXML + WXSS |
| Logic Layer | MCP semantic binding | JS engine |
| State Layer | Context Manager | Local/session storage |
| Security | Sandbox + tokens | Web sandbox + API scopes |
| Performance | Inference latency | Rendering/network latency |
ChatGPT follows an AI-native semantic architecture,
while WeChat Mini-Programs use a UI-container architecture.
7.3 Ecosystem Differences
| Category | ChatGPT App SDK | WeChat Mini-Program |
|---|---|---|
| Distribution | App Directory + model recommendation | Search, share, QR code |
| Payment | Instant Checkout | WeChat Pay |
| Identity | OpenAI account | WeChat ID |
| Ecosystem Type | Global open | China-local closed |
The former is semantics-driven, the latter social-driven.
7.4 Summary
| Layer | Mechanism | Feature | Advantage | Limitation |
|---|---|---|---|---|
| ChatGPT App SDK | Semantic-driven | MCP protocol | Intelligent, adaptive, cross-platform | Limited UI control, model latency |
| WeChat Mini-Program | Event-driven | Front-end API model | Mature, customizable | No semantic intelligence, closed ecosystem |
Conclusion:
WeChat Mini-Programs represent the pinnacle of the mobile internet era,
while ChatGPT Apps mark the beginning of the AI semantic era —
a shift from event-driven to meaning-driven computation.
8. Conclusion
The ChatGPT App SDK, released on October 6, 2025, marks a decisive moment in AI platform evolution.
By introducing the Model Context Protocol, OpenAI transformed ChatGPT into a full AI operating environment—
capable of running, distributing, and monetizing applications.
From a technical standpoint, it unifies language understanding and execution.
From an industrial standpoint, it redefines the interface between humans, software, and information flow.
This milestone signifies that:
The future of software is not built on clicks,
but on semantics. Conversation itself becomes the new operating system.
📘 附录:ChatGPT App SDK 技术问答系列(Q&A)
Q1:ChatGPT App SDK 到底是什么?
A:
ChatGPT App SDK 是 OpenAI 于 2025 年 10 月 6 日 发布的全新开发框架。
它允许开发者在 ChatGPT 平台上注册和运行第三方应用,使 ChatGPT 能够通过自然语言调用这些外部服务。
SDK 基于 Model Context Protocol (MCP),
实现了语言模型与远程 API 之间的标准化通信,让 ChatGPT 成为一个“语义运行平台(Semantic Runtime)”。
Q2:用户如何在 ChatGPT 里使用这些 App?
A:
用户只需在 ChatGPT 对话中发出自然语言请求(例如:“帮我订墨尔本的酒店”)。
模型会在 App Directory 中自动匹配最合适的 App,并调用其远程 API。
整个过程是 语义驱动(semantic-driven) 的,而非传统的点击操作。
Q3:开发者的 App 实际运行在哪里?
A:
ChatGPT 并不“托管”或“运行”外部 App。
开发者的逻辑与数据仍运行在自己的服务器(例如 Azure、AWS、GCP 或私有云)上。
ChatGPT 只是通过 MCP 协议 向这些远程服务发送调用请求,并在对话中展示结果。
Q4:我的原有后台服务能直接复用吗?
A:
可以 ✅。
你的原有 Azure / AWS 服务完全不需要修改。
只需新增一层“语义接口(Adapter Layer)”,接收 ChatGPT 的 MCP 调用并转发到原 API。
换句话说:
不需要重建系统,只是让它“听懂人话”。
Q5:这个“语义接口层”主要做什么?
A:
- 接收 ChatGPT 的调用(JSON 格式,包含 action 和参数);
- 验证安全与参数;
- 调用原有业务逻辑 / API;
- 格式化结果并返回结构化 JSON。
ChatGPT 接收到结果后,会自动生成自然语言或结构化输出。
Q6:ChatGPT App SDK 和微信小程序有何区别?
| 对比项 | ChatGPT App SDK | 微信小程序 |
|---|---|---|
| 运行环境 | 模型语义运行时(LLM Runtime) | 微信客户端沙盒 |
| 驱动机制 | 语义驱动(Semantic-Driven) | 事件驱动(Event-Driven) |
| 界面展示 | ChatGPT 自动生成 | 开发者手写前端 |
| 服务部署 | 自托管(任意云) | 微信封闭生态 |
| 生态性质 | 开放协议(MCP) | 封闭平台 |
ChatGPT App SDK 是“开放协议 + 语义调用”;
微信小程序是“封闭平台 + 本地执行”。
Q7:ChatGPT App 与独立 App(App Store 应用)有什么区别?
| 项目 | ChatGPT App | 独立 App |
|---|---|---|
| 用户入口 | ChatGPT 对话 | 图标或网页 |
| 运行环境 | 模型语义层 | 系统层(iOS / Android) |
| 交互方式 | 自然语言 | 图形界面 |
| 功能触发 | 模型自动调用 | 用户点击操作 |
| 分发渠道 | ChatGPT App Directory | App Store / Google Play |
| 执行逻辑 | 远程 API 调用 | 本地代码执行 |
| 依附关系 | 依附 ChatGPT 平台 | 独立运行 |
简而言之:
ChatGPT App 是为 ChatGPT 用户提供的“语义服务接口”;
独立 App 则是为所有设备提供的“图形化程序实体”。
Q8:ChatGPT App 是不是在 ChatGPT 内“运行”应用?
A:
不是。
ChatGPT App 不会加载任何外部 App 的 UI 或脚本。
它只是:
- 通过语义理解用户意图;
- 生成调用指令;
- 访问开发者的远程服务;
- 把结果以自然语言或结构化方式展示。
ChatGPT App 是“语义代理”,不是“App 容器”。
Q9:ChatGPT App 的交互逻辑是什么?
A:
运行流程如下:
用户输入 → 模型语义理解
→ 匹配合适 App(根据描述与标签)
→ 选择动作(Action)
→ 调用远程服务 (MCP)
→ 获取结果并生成语义输出
→ 在对话中展示
整个过程不涉及 GUI 渲染或客户端运行,而是纯粹的语义执行链(Semantic Execution Chain)。
Q10:总结:ChatGPT App 的本质是什么?
ChatGPT App SDK 建立的是一个语义操作系统层(Semantic Operating Layer)。
用户以语言表达需求,
模型以语义理解调用服务,
开发者的后台系统完成执行。
它不是“在 ChatGPT 里装 App”,
而是“让 App 的能力被 ChatGPT 理解、调用与表达”。
Q11:一句话理解整个生态的边界
- ChatGPT App → 面向 ChatGPT 用户、依附于语义平台;
- 独立 App → 面向全网用户、独立运行;
ChatGPT App 不展示外部 UI,也不运行外部代码,
它只通过语言智能输出连接用户与远程服务。
Q12:ChatGPT App 与传统互联网生态的关系
| 层级 | 传统互联网 | ChatGPT 语义生态 |
|---|---|---|
| 操作逻辑 | 点击与图形交互 | 对话与语义推理 |
| 连接模式 | 链接 / 页面跳转 | 模型 / 语义调用 |
| 控制中心 | 平台或应用 | 语言模型(LLM) |
| 未来趋势 | 封闭生态竞争 | 开放语义互联 |
结语
ChatGPT App SDK 标志着应用形态从“图形交互”走向“语义交互”。
它并非在 ChatGPT 内运行 App,而是通过语言理解连接外部服务。
这代表了从 App 生态 → AI 语义生态 的范式跃迁。
未来的用户不再“打开”应用,而是“对话”即应用。
📘 ChatGPT App SDK — Technical Q&A Series
Q1: What exactly is the ChatGPT App SDK?
A:
The ChatGPT App SDK, released by OpenAI on October 6, 2025, is a developer framework that allows third-party apps to be registered and invoked inside ChatGPT.
It is built on the Model Context Protocol (MCP), providing a standardized communication layer between the language model and remote APIs—turning ChatGPT into a semantic runtime environment.
Q2: How do users access these apps inside ChatGPT?
A:
Users simply describe what they want in natural language (for example, “Book me a hotel in Melbourne”).
ChatGPT automatically locates the most relevant app in the App Directory and invokes its API.
The entire process is semantic-driven, not click-driven.
Q3: Where does a developer’s app actually run?
A:
It does not run inside ChatGPT.
All logic and data processing remain on the developer’s own servers (e.g., Azure, AWS, GCP, or private infrastructure).
ChatGPT only communicates with these services via the MCP protocol and presents the results in conversation.
Q4: Can my existing backend services be reused directly?
A:
Yes ✅.
Your existing backend can stay exactly as it is—you just add a lightweight semantic adapter layer that receives ChatGPT’s calls and maps them to your current APIs.
No architectural rewrite is required.
Q5: What does this “semantic adapter layer” do?
A:
- Receives the MCP call from ChatGPT
- Validates parameters, security, and authentication
- Calls your existing APIs
- Returns structured JSON responses for the model to interpret and render
Q6: How is it different from WeChat Mini-Programs?
| Aspect | ChatGPT App SDK | WeChat Mini-Program |
|---|---|---|
| Runtime | Model-semantic runtime (LLM) | WeChat client sandbox |
| Trigger | Semantic-driven | Event-driven |
| UI | Auto-generated by ChatGPT | Developer-defined |
| Hosting | Developer-owned | WeChat-hosted |
| Ecosystem | Open protocol (MCP) | Closed platform |
WeChat Mini-Programs are closed containers.
ChatGPT Apps are open protocols.
Q7: How does it compare to standalone (App Store) apps?
| Category | ChatGPT App | Standalone App |
|---|---|---|
| Entry | ChatGPT chat interface | Icon or website |
| Runtime | Semantic layer | Operating-system layer |
| Interaction | Natural language | Graphical UI |
| Distribution | ChatGPT App Directory | App Store / Google Play |
| Execution | Remote API call | Local code execution |
ChatGPT Apps exist within the ChatGPT ecosystem and serve its users through language.
Standalone apps operate independently and rely on GUI interactions—one belongs to the semantic layer, the other to the system layer.
Q8: Does ChatGPT actually run those apps?
A:
No.
ChatGPT doesn’t load or execute any external UI or code.
It interprets intent, issues a call, receives a response, and renders the result.
A ChatGPT App is a semantic agent, not a runtime container.
Q9: What is the actual interaction flow?
User prompt → Model interprets intent
→ Matches an app
→ Invokes remote service (MCP)
→ Receives results and generates response
→ Displays inside the chat
Q10: What is the fundamental nature of a ChatGPT App?
It represents a semantic operating layer where users express intent in language,
the model interprets and orchestrates actions,
and developer backends perform the actual execution remotely.
Q11: Where is the boundary between ChatGPT Apps and standalone apps?
| Layer | ChatGPT App | Standalone App |
|---|---|---|
| Target users | ChatGPT users | General platform users |
| Host platform | ChatGPT ecosystem | Independent OS |
| UI rendering | Model-generated output | Developer-built GUI |
| Operation mode | Semantic invocation of remote service | Local code execution |
ChatGPT Apps live inside ChatGPT and expose semantic capabilities.
Standalone apps live outside, with their own distribution and UI logic.
Q12: How does this relate to the traditional internet ecosystem?
| Layer | Traditional Internet | ChatGPT Semantic Ecosystem |
|---|---|---|
| Interaction logic | Clicks and navigation | Language and semantics |
| Connection model | Links and pages | Models and APIs |
| Control center | Platform or app | Language model (LLM) |
| Evolution trend | Closed platforms | Open semantic interconnectivity |
Conclusion
The ChatGPT App SDK marks a fundamental transition—from graphical interaction to semantic interaction.
It doesn’t run external apps within ChatGPT; rather, it allows language itself to become the interface to services.
In the future, users won’t open apps — they’ll speak them into existence.
Leave a comment