OpenAI将如何确定其AI系统有多强大

  • 发布时间:2024-07-12 09:44:28 来源:
标签:
导读 OpenAI的一位发言人向彭博社表示,该公司已经创建了一个内部量表,以追踪其大型语言模型在通用人工智能(具有类人智能的人工智能)方面取得的...

OpenAI的一位发言人向彭博社表示,该公司已经创建了一个内部量表,以追踪其大型语言模型在通用人工智能(具有类人智能的人工智能)方面取得的进展。

当今的聊天机器人,如ChatGPT,处于第1级。OpenAI声称它已接近第2级,第2级定义为能够以博士学位水平解决基本问题的系统。第3级是指能够代表用户采取行动的人工智能代理。第4级涉及能够创造新创新的人工智能。第5级是实现AGI的最后一步,是可以执行整个组织工作的人工智能。OpenAI之前将AGI定义为“一种高度自主的系统,在大多数具有经济价值的任务上超越人类。”

OpenAI的独特结构围绕着实现AGI的使命,而OpenAI如何定义AGI非常重要。该公司曾表示,“如果一个价值观一致、注重安全的项目在OpenAI之前接近实现AGI”,它承诺不会与该项目竞争,并放弃一切来提供帮助。OpenAI章程中对此的表述很模糊,为营利性实体(由非营利组织管理)留下了判断空间,但OpenAI可以测试自己和竞争对手的规模可以帮助更清楚地确定何时实现AGI。

不过,AGI仍然遥不可及:即使能实现,也需要数十亿美元的计算能力。专家甚至OpenAI给出的时间表也大相径庭。2023年10月,OpenAI首席执行官SamAltman表示,我们“还有五年时间”才能实现AGI。

这一新的评分标准虽然仍在开发中,但在OpenAI宣布与洛斯阿拉莫斯国家实验室合作的第二天就已推出,旨在探索GPT-4o等先进AI模型如何安全地协助生物科学研究。洛斯阿拉莫斯的一位项目经理负责国家安全生物学项目,在确保与OpenAI的合作中发挥了重要作用,他告诉TheVerge,目标是测试GPT-4o的能力,并为美国政府建立一套安全和其他因素。最终,可以根据这些因素测试公共或私人模型,以评估他们自己的模型。

今年5月,OpenAI解散了其安全团队,因为该团队的负责人、OpenAI联合创始人IlyaSutskever离开了公司。OpenAI的主要研究员JanLeike在一篇帖子中声称“公司的安全文化和流程已经让位于闪亮的产品”,随后不久辞职。尽管OpenAI否认了这一说法,但一些人担心,如果该公司真的实现了AGI,这意味着什么。

OpenAI尚未提供有关如何将模型分配到这些内部层级的详细信息(并拒绝了TheVerge的置评请求)。不过,据彭博社报道,公司领导人在周四的全体会议上展示了一项使用GPT-4AI模型的研究项目,并相信该项目展示了一些表现出类似人类推理能力的新技能。

这种衡量标准有助于对进步做出严格的定义,而不是任人解读。例如,OpenAI首席技术官米拉·穆拉蒂(MiraMurati)在6月份的一次采访中表示,其实验室中的模型并不比公众已有的模型好多少。与此同时,首席执行官山姆·奥特曼(SamAltman)去年年底表示,该公司最近“揭开了无知之幕”,这意味着这些模型的智能程度显著提高。

  • 免责声明:本文由用户上传,如有侵权请联系删除!