type
status
date
slug
summary
tags
category
icon
password
OpenAI 近期发布了新一代 Codex 系统,宣称它将深度改变软件工程的工作方式。
对于已经在使用 AI 进行编程的开发者来说,这个新系统带来了哪些值得关注的变化和能力?我们梳理了以下九个核心问题。
1. OpenAI 最新发布的 Codex 系统是什么 ?
OpenAI 发布的是一个运行在其计算基础设施上的远程软件代理。它被命名为 Codex,并且能够并行执行许多任务。
2. 这个新的 Codex 系统由什么技术驱动?
新系统由 Codex One 的新模型提供支持。被称为是 OpenAI 迄今为止最好的编码模型,它针对实际代码库的使用进行了优化,考虑了注释、非必要更改和代码风格等。此外,这个系统依赖于全新的代理式编码基础设施,该基础设施需要自己的 GPU 和 CPU 来运行。
3. 哪些开发者可以立即开始使用新的 Codex 系统?
新的 Codex 系统首先向 ChatGPT for Pro、Enterprise 和 Teams 用户推出。OpenAI 表示未来也将跟进 Plus 和 Edu 用户。
4. 新的 Codex 系统如何与开发者的代码库和开发环境交互?
开发者需要连接他们的 GitHub 账户或其他仓库。Codex 运行在开发者的仓库和环境之上。
每个任务都在一个微型虚拟机沙盒中运行,拥有独立的文件系统、CPU、内存和网络策略,代理在其中拥有完全的自由权限。
用户可以为每个任务配置运行环境,包括环境变量、密钥和设置脚本,以充分发挥代理的能力。
5. 开发者可以使用新的 Codex 系统执行哪些类型的编程任务?
Codex 可以执行多种编程任务。例如:
- 解释代码库的整体结构给新手。
- 查找和修复代码库中的 Bug。
- 浏览代码库并主动提出可以自己完成的任务建议。
- 查找并修复尽可能多的拼写错误和语法错误。
- 根据代码库目标(如可维护性、无 Bug)阅读代码并提出新任务。
- 查找和解决复杂问题。
- 重现问题。
- 自动编写和运行测试来验证其修复。
- 未来还计划自动修复持续集成 (CI) 错误。
6. Codex 系统如何确保其工作的正确性?
Codex 使用端到端强化学习进行训练。在训练中,模型需要完成从编写代码到运行测试的整个周期。
OpenAI 会验证它是否能完成任务,并满足代码风格和程序性检查等要求。 为了验证输出,系统具有很强的可解释性和可验证性。任务完成后,模型会生成工作总结,解释做了什么以及原因。它会显示引用的代码片段。
在测试部分,模型会运行被告知要运行的测试(如 agents.md 文件中指定的),并报告测试是通过还是失败。用户可以在工作日志中查看测试运行的具体位置并验证结果。这使得 Codex 的工作非常可信。
7. 开发者如何指导或指示 Codex 代理的行为和优先级?
开发者可以通过提供指导来控制和指导模型。一个重要的机制是使用 agents.md 文件。在这个文件中,开发者可以提供关于代码库布局的说明、如何运行测试的说明,以及关于提交信息、PR 信息和代码结构方式的详细指南。这为代理提供了重要的上下文和规则。
8. 与之前的 AI 编码工具相比,新系统的优势是什么?
与早期的 Codex 模型(如 GitHub Copilot)或 ChatGPT 中处理编程项目的 GPT-4 相比,新系统有以下优势:
- 它是一个远程代理,运行在云端而非本地。
- 能够并行执行许多任务。
- 运行在 OpenAI 的计算基础设施上,具有完美的伸缩性,可以轻松启动一个、十个或一万个代理。
- 能自动化更大块的工作,开发者可以告诉它“做什么”而不是“怎么做”,并且它可以长时间地处理任务。
- 与在 ChatGPT 中使用大型语言模型处理编程项目时需要大量“手持指导”和“上下文切换”相比,新系统感觉不那么笨拙。
- Codex 可以自主探索和提出任务。
- 可以在不接触开发者本地电脑的情况下完成并提交代码更改。
9. 新系统如何融入现有的开发协作和工作流程?
Codex 设计用于异步工作。开发者可以启动一个任务,然后去做其他事情,稍后再回来查看结果。代理可以准备文件用于提交,并最终生成拉取请求(PR)。系统提供详细的模型生成总结和测试结果,使得代码评审更加透明和可信。开发者可以直接查看并验证测试是否通过。
知识库:
- Author:二师兄
- URL:https://cloudesx.com/article/%20openai-codex
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!