隆重推出 OpenAI o1
隆重推出 OpenAI o1

隆重推出 OpenAI o1

我们开发了一系列新的人工智能模型,旨在让它们在给出答复之前花更多的时间思考。它们可以推理复杂的任务,并解决比以前的科学、编码和数学模型更难的问题。

今天,我们将在 ChatGPT 和我们的 API 中发布该系列的第一个模型。这是一个预览版,我们将定期进行更新和改进。在发布此版本的同时,我们还将对目前正在开发中的下一次更新进行评估

工作原理

我们训练这些模型花更多时间思考问题,然后再做出反应,就像人一样。通过训练,它们学会了完善自己的思考过程、尝试不同的策略并认识到自己的错误。 

在我们的测试中,下一次更新的模型在物理、化学和生物领域具有挑战性的基准任务上的表现与博士生相似。我们还发现它在数学和编码方面表现出色。在国际数学奥林匹克 (IMO) 的资格考试中,GPT‑4o 只正确解决了 13% 的问题,而推理模型的正确率则高达 83%。他们的编码能力在竞赛中得到了评估,在 Codeforces 竞赛中获得了第 89 位。您可以在我们的技术研究文章中阅读更多相关信息。

作为一个早期模型,它还不具备使 ChatGPT 变得有用的许多功能,如浏览网络信息、上传文件和图片等。对于许多常见情况,GPT‑4o 在短期内会有更强的能力。

但对于复杂的推理任务来说,这是一个重大进步,代表了人工智能能力的新水平。有鉴于此,我们将计数器重置为 1,并将此系列命名为 OpenAI o1。

安全

作为开发这些新模型的一部分,我们提出了一种新的安全训练方法,利用它们的推理能力,使它们遵守安全和一致性准则。通过在上下文中对我们的安全规则进行推理,它可以更有效地应用这些规则。 

我们衡量安全性的方法之一,就是测试当用户试图绕过安全规则时,我们的模型能在多大程度上继续遵守安全规则(即“越狱”)。在最难的越狱测试中,GPT‑4o 得分为 22 分(0-100 分),而我们的 o1‑preview 模型得分为 84 分。您可以在系统卡和我们的研究文章中了解更多相关信息。

为了与这些模型的新功能相匹配,我们加强了安全工作、内部管理和联邦政府合作。这包括使用我们的防范准备框架⁠(在新窗口中打开)进行的严格测试和评估、同类最佳的红队测试以及董事会级别的审查流程,包括由我们的安全与安保委员会进行的审查

为了推进我们对人工智能安全的承诺,我们最近与美国和英国的人工智能安全研究所正式签订了协议。我们已经开始将这些协议付诸实施,包括允许这两家机构提前使用该模型的研究版本。这是我们合作关系中重要的第一步,有助于在未来模型公开发布之前和之后建立研究、评估和测试流程。

适用对象

如果您正在处理科学、编码、数学和类似领域的复杂问题,这些增强的推理能力可能会特别有用。例如,医疗保健研究人员可以使用 o1 为细胞测序数据添加注释,物理学家可以使用 o1 生成量子光学所需的复杂数学公式,所有领域的开发人员都可以使用 o1 构建和执行多步骤工作流。 

OpenAI 推出ChatGPT Edu团购版价格更划算

X