AGI 并非是单一的技术突破,而是一种综合性的智能能力。它意味着人工智能不再局限于特定的任务和领域,而是能够理解和处理各种类型的信息,具备广泛的知识和技能。与当前的弱人工智能不同,AGI 能够自主地适应新的环境和任务,展现出类似人类的灵活性和创造力。
目前,我们距离真正实现 AGI 仍有一段距离,但科技界已经在这条道路上取得了显著的进展。像 OpenAI 这样的研究机构正在不断推动语言模型的发展,并且已构建起一个内部「评分标准」,旨在追踪其大型语言模型在通用人工智能(即具备类人智能的 AI)领域所取得的进展。在这个「评分标准」中,ChatGPT 处于 1 级水准。
OpenAI 宣称自身已趋近 2 级,此级别被界定为能够解决博士水平基础问题的系统。第 3 级指的是能够代表用户执行行动的 AI 代理。第 4 级涉及能够进行创新的人工智能。第 5 级,即达成 AGI 的终极形态,是能够执行整个人员组织工作的人工智能。OpenAI 此前曾将 AGI 定义为“一种高度自主的系统,在最具经济价值的任务层面超越人类”。 OpenAI 的独特架构围绕其达成 AGI 的使命构筑而成,而 OpenAI 对于 AGI 的定义至关重要。该公司曾声明,“倘若一个价值对齐、具备安全意识的项目在 OpenAI 之前趋近构建 AGI”,其承诺不会与该项目形成竞争,并且全力以赴予以协助。虽然 OpenAI 章程中的相关表述不够清晰,为营利性实体(由非营利组织管理)的判断预留了空间,不过 OpenAI 针对自身及竞争对手规模的测试,有助于决定何时以更清晰的表述达成 AGI 。 即便如此,AGI 的达成仍有漫长的路途:实现 AGI 或许需要耗费价值数十亿美元的计算能力。专家们的预期时间,乃至包括 OpenAI 自身的预期时间,均存在显著差异。去年 10 月,OpenAI 首席执行官 Sam Altman 曾表示,“我们还需五年时间才能实现 AGI,无论何种情况”。 「评分标准」的推出与 OpenAI 和 Los Alamos 的合作也有关系。7 月 10 日,OpenAI 宣布与 Los Alamos 国家实验室 (LANL:美国领先的国家实验室之一)建立合作关系,该合作旨在探究 GPT-4o 等高级 AI 模型如何安全地助力生物科学研究。 Los Alamos 的一位负责国家安全生物学投资组合的项目经理,在保障 OpenAI 合作伙伴关系方面发挥了关键作用,其向媒体 The Verge 透露,目标在于测试 GPT-4o 的能力,并为美国政府建立一套有关安全及其他因素的标准。最终,能够依据这些因素对公共或私有模型进行测试,以评估它们自身的模型。 今年 5 月,OpenAI 在其联合创始人 Ilya Sutskever 离开公司之后,便解散了安全团队。OpenAI 的主要研究人员 Jan Leike 在一篇帖子中宣称“安全文化和流程已经让位于光鲜的产品”,不久之后便辞职。尽管 OpenAI 对此予以否认,但仍有部分人士担忧,倘若 OpenAI 真达成了 AGI,这究竟意味着何种情形。 OpenAI 未曾提供有关如何将模型分配至这些内部级别的详尽信息。然而,据彭博社报道,公司领导在周四的全体会议上展示了一个运用 GPT-4 AI 模型的研究项目,并认为该项目展现了一些呈现出类似人类推理的新技能。 例如,OpenAI 首席技术官 Mira Murati 在 6 月份的一次采访中指明,其实验室中的模型相较于公众已拥有的,并未具有显著优势。与此同时,首席执行官 Sam Altman 去年年底表示,该公司近期“揭开了无知的面纱”,这意味着这些模型明显更具智能。