(资料图)
品玩 6 月 9 日讯,北京智源大会是智源研究院举办的年度国际性人工智能的高端学术交流活动。今年是第五届。大会以国际性、权威性、专业性和前瞻性为特色,定位于内行的 AI 盛会。Yann LeCun 、Geoffrey Hinton 以及 Yoshua Bengio 三位科学家并称为深度学习三巨头。而三巨头之中,LeCun 对于 AI 发展所持的态度是最为乐观的。关于 AI 接下来该如何发展,在今天上午于北京举行的 2023 智源人工智能大会上,他发表了名为《走向能够学习、推理和规划的大模型》的演讲,表达了系统的思考。
LeCun 核心观点精彩摘要如下:
AI 的能力距离人类与动物的能力,还有差距——差距主要体现在逻辑推理和规划,大模型目前只能「本能反应」。
什么是自监督学习?自监督学习是捕捉输入中的依赖关系。训练系统会捕捉我们看到的部分和我们尚未看到的部分之间的依赖关系。
目前的大模型如果训练在一万亿个 token 或两万亿个 token 的数据上,它们的性能是惊人的。我们很容易被它的流畅性所迷惑。但最终,它们会犯很愚蠢的错误。它们会犯事实错误、逻辑错误、不一致性,它们的推理能力有限,会产生有害内容。由此大模型需要被重新训练。
如何让 AI 能够像人类一样能真正规划?可以参考人类和动物是如何快速学习的——通过观察和体验世界。
Lecun 认为,未来 AI 的发展面临三大挑战,并由此提出「世界模型(World Model)」。