*的人工智能是“一个拥有超人推理能力、1万亿个上下文标记并可以使用你能想到的所有工具的微型模型”。
这是奥特曼在最新的访谈中对下一代模型的展望。
他表示,理想中的AGI不需要包含知识——只需要思考、搜索、模拟和解决任何问题的能力。
它应该成为一个能够自主发现新科学,或者成为人类强大工具,使全球科学发现速度提升数倍的系统。
也许到那时,我们可能要反过来问问AI我们应该怎么做。
此话一出,有网友表示,奥特曼对AGI的理想倒是始终没有变过:系统能自主探索新的科学发现。
但也有网友对此表示怀疑,“询问AI该怎么做”就好像把我们手中的钥匙交了出去,令人不安。
访谈中,奥特曼还对一个一千倍算力的假设性问题给出了*概念性的回答。
一起来看看具体内容。
平稳、快速的进步更重要
AGI的定义其实并不重要,重要的是平稳地快速进步。
在主持人问到对AGI的定义时,奥特曼表示,不同的人在不同的时期都会对此有不一样的理解。
可能在2020年,人工智能领域的发展还不像如今这样繁荣的时候,如果出现ChatGPT,大多数人可能会认为这就是AGI。
就像这位网友说的,自己对AGI所有的期望都已经被OpenAI实现了
不过,人类很擅长调整预期,在快速发展的今天,大家对AGI就有了更高的期待。
如今,有人认为AGI必须具备自我改进能力,还有很多人觉得带有记忆功能的ChatGPT就已经很接近AGI了。
甚至有人认为如今的LLMs会成为未来AGI调用的工具之一!
以奥特曼自己来说:
一个能够自主发现新科学,或者成为人类强大工具,使全球科学发现速度提升数倍的系统,就符合我理想中的AGI。
然而,在他看来,这些定义都不重要。
相比之下,究竟是在2026年还是2028年宣布实现 AGI,或者在2028年、2030年还是2032年宣布实现超级智能,这些时间节点远不如持续、快速的发展趋势重要。
也就是说,重要的并不是单一的突破,而是持续、平稳的指数级进步。
下一代模型
当被问到对下一代模型的展望时,奥特曼则表示:
未来一到两年推出的模型将令人惊叹,产品还有很大的进步空间和改进潜力。
就像从GPT-3到GPT-4的巨大跨越一样,企业将能够利用新一代模型完成上一代模型完全无法实现的任务。
比如,芯片设计公司可以要求模型设计出比以往更优秀的芯片;生物科技公司,能够让模型专注于攻克某种疾病。
这些模型将能够理解企业提供的所有背景信息,连接各种工具和系统,进行深入、出色的推理,并给出答案。
同时,它们还将具备足够的稳定性,企业可以放心让其自主完成部分工作。
奥特曼还说:
这应该是一个小型模型,却具备超越人类的推理能力,运行速度极快,能够处理一万亿个标记的上下文信息,并可以访问所有能想到的工具。
如果将这些模型仅当作数据库使用其实并不高效。
但如果将其视为推理引擎,就可以将企业的所有信息、个人生活的各种背景,以及所需的任何工具都输入其中,人类就能够借此完成许多不可思议的事情。
OpenAI正在朝着这个方向发展。
接着,主持人又问了一个更具假设性的问题:
如果计算资源增加一千倍,你们会如何利用这些资源?
奥特曼先给出了一个比较概念性的回答:
让模型决定如何利用计算资源。
他认为最合理的做法是利用这些资源大力开展人工智能研究,探索如何构建更强大的模型,然后再让新模型来决定如何利用这些计算资源。
当然他也给出了更实用的回答:
在ChatGPT或企业使用最新模型的过程中发现,增加测试阶段的计算资源能带来显著回报。
也就是说,
如果让模型进行更多推理,在难题上多尝试几次,就能得到更好的答案。
虽然现实中企业不会真的这样做,也很难拥有千倍的计算资源,但这种可能性也为企业指明了方向——
可以为最棘手、最有价值的问题尝试投入更多计算资源。
访谈中聊了很多对AI未来的展望,可以肯定的是,如今的大模型已经是百科全书了。
随着算力的发展以及科技的进步,AI在未来或许真的可以成为一个伟大的思考者。
免责声明:此文内容为本网站转载企业宣传资讯,仅代表作者个人观点,与本网无关。仅供读者参考,并请自行核实相关内容。