OpenAI 致力于培养独立的“人工智能研究人员”。

记者张嘉欣 如今,随着人工智能(AI)竞争越来越激烈,OpenAI再次推出震惊业界的大计划。 OpenAI首席科学家Jacob Paciocchi近日在接受《麻省理工科技评论》专访时透露,该公司目标有一个前所未有的科研目标:到2028年打造出能够独立解决复杂问题的“AI研究人员”。它是一个完全自动化的多智能体研究系统,可以独立完成多种科研任务,从数学、物理到生物、化学,甚至政策分析。 OpenAI表示,推出“AI研究员”计划是公司未来几年的发展方向。第一阶段目标将于今年9月实施。届时,OpenAI将首先推出“通行自主AI研究大妈”。该计划标志着OpenAI加速人工智能技术应用的新尝试,也是重要的战略发展,因为它与 Anthropic 和“Deep Thinking”等竞争对手展开竞争。帕乔基说:“我们正在接近这样一个阶段:我们的模型可以像人类一样,无限期地表现一致。” “当然,必须有人承担责任并设定目标,但我认为我们最终会达到在我们的研究中心拥有完整实验室数据的程度。” Codex 的“不断发展”的 OpenAI 并不是天上掉下来的馅饼。今年1月,OpenAI推出了Codex,这是一款可以即时生成代码并执行复杂计算任务的代理应用程序。分析文档、生成图表、组织电子邮件和社交媒体摘要等。如今,Codex 已成为帮助内部员工开发代码和解决问题的标准。 Paciocchi 表示 Codex 可以被视为“人工智能研究员”的原型。未来,Codex将不断进行颠覆性创新。 OpenAI 首席科学家、公司长期研究目标架构师 Pachocchi 表示,从技术演进的角度来看,模型的“远程工作能力”将随着参数规模和逻辑深度的增加而不断增强。我们看到线性改进。从GPT-3到GPT-4,该模型在无需干预的情况下处理复杂问题所需的时间实现了质的飞跃。 2024年推出的“推理模型”技术将通过引入“思维链”训练,让人工智能能够像人类一样一步步前进,遇到错误时就退步。目前,OpenAI正在利用难题在其模型中“训练魔鬼”。他们被教授数学和编程技能,目的是提高他们处理超长句子、分解多个子任务、最终解决现实世界科学研究问题的能力。 Paciocchi认为自动化科学研究的关键在于系统可以运行更长时间并减少人工干预。 “我们的目标是开发一个研究实践系统,减少通常需要数天时间的人类工作。”Paciocchi 解释道。通过训练模型逐步解决问题并跟踪错误,推理模型可以随着时间的推移继续一致地执行。艾伦人工智能研究所的研究员 Doug Downey 在谈到自动化时表示:科学研究是一项令人兴奋的活动。“想象一下,明天早上我们回到实验室。该代理完成了一系列科学研究任务并产生了新的分析结果。 AI的科研能力已进入验证阶段。OpenAI目前正专注于现实世界的相关研究。报告称,研究人员利用Codex支持的GPT-5模型发现了多个开放数学问题的解决方案,并在生物、化学和物理等多个难题上取得了进展。生产力的大幅提升改变了传统的研究方法。即使是最“铁杆”程序员的职业习惯。 Pachouki 承认,它对代码精度的要求近乎苛刻,导致他在一年前甚至拒绝使用最基本的自动完成功能,而更喜欢在 Vim 编辑器(高级程序员更喜欢的文本编辑器)中手动输入每个字符。 l 模型 随着 Le 的特征不断重复,他的观点发生了根本性的改变。研究发现,虽然复杂的架构设计仍然需要人类主导,但在实验验证阶段,人工智能可以在周末完成以前需要一周才能编写的代码。对于OpenAI的乐观预期,学术界仍存在不同的声音。艾伦人工智能研究所的研究人员在去年的一次测试中观察到,当一项任务需要组合多个复杂的逻辑步骤时,现有模型往往会导致每个小错误不断累积,导致最终结果失败。从这个意义上说,OpenAI不断迭代其模型,例如h作为最近发布的GPT-5.4版本,旨在进一步提高任务处理中的逻辑稳定性和一致性。通过这次迭代继续,OpenAI希望“AI研究人员”在深入参与现实世界的科学研究之前,能够证明自己在科学上是值得信赖的。 “权力集中”问题必须共同解决。但随着科学研究的“方向盘”逐渐交给算法,需要同时强化伦理和安全壁垒。帕乔基指出,能够运行整个研究项目的强大人工智能可能会导致重大的未解决问题,例如系统失去控制、被黑客攻击或根本不理解自己的指令。为了应对这些挑战,OpenAI正在推广“思想链监控”技术。该技术训练模型在“草稿本”中记录工作笔记,以便研究人员可以实时审核模型是否按预期运行。peaPaciocchi认为,要完全信任这些系统,有必要设定严格的限制,例如在与外界隔离的“沙箱”中部署非常强大的模型。他还表示,“想象一下一个数据中心,你可以在其中完成曾经需要大型组织的科学研究工作,但现在可能只需要几个人。”这些系统以其集中的能力和巨大的影响力,将对社会和政策提出新的挑战。面对这种不断增长的力量,帕乔基表示,到2028年,他还预测,虽然人工智能系统在各方面都不会像人类一样智能,但这并不妨碍人工智能产生深刻的变革效应。这就需要社会、政策制定者、科研机构共同参与监督,而不是仅仅依赖OpenAI。 (编辑:杨淼)

类似文章

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注