IT之家 10 月 14 日消息,Meta 首席人工智能科学家 Yann LeCun 近日在接受《华尔街日报》采访时表示,对人工智能对人类生存的威胁的担忧是“彻头彻尾的胡说八道(complete B.S.)”。
LeCun 是人工智能领域的一位先驱,曾获得图灵奖,目前担任纽约大学教授和 Meta 高级研究员。他此前曾在社交媒体上表示,在担心控制超级智能 AI 之前,我们需要先弄清楚如何设计一个比家猫更聪明的系统。
LeCun 在接受《华尔街日报》采访时详细阐述了他的观点,在回答有关人工智能变得足够聪明以至于对人类构成威胁的问题时,他说:“你将不得不原谅我的法语,但那是完全的胡说八道。”
LeCun认为, 今天的语言大模型缺乏一些关键的“猫级”能力,如持久记忆、推理、规划和对物理世界的理解 。他认为,这些模型只是证明了“你可以操纵语言,但并不聪明”,它们永远不会产生真正的通用人工智能(AGI)。
IT之家注意到,LeCun 并不完全否认实现 AGI 的可能性,但他表示,需要新的方法来实现。他指出,他领导的 Meta 基础人工智能研究团队正在研究如何消化真实世界的视频,这可能是一种有前景的方向。
图灵奖获得者Yann LeCun :学习“世界模型”的能力是构建人类级AI的关键所在
构建接近人类水平的人工智能需要什么?仅仅是更多的数据和更大的人工智能模型吗?本文通过深入探讨人工智能专家Yann LeCun的见解,揭示了构建人类级AI的关键所在:学习“世界模型”的能力。 LeCun认为,一个从未接触过驾驶的青少年能在短短20小时内学会开车,而当前的自动驾驶系统,尽管需要数百万甚至数十亿的带标签训练数据和强化学习试验,仍无法像人类一样可靠。 因此,构建能与人类媲美的AI,关键在于其能否学习和理解世界运行的内部模型。 “人类和非人类动物似乎能够通过观察和少量难以理解的互动,以一种与任务无关的、无监督的方式学习关于世界如何运作的大量背景知识。 根据推测,这样积累的知识可能就构成了我们通常所说的常识的基础。 ”LeCun指出。 这使得动物不仅能够预测未来结果,而且能够填补缺失的信息,无论是时间上的还是空间上的。 人类使用世界模型的能力,使我们在不熟悉的情况下仍能高效地规划和执行任务。 例如,一个从未在雪地开过车的司机,通过常识知道雪地会很滑,从而在驾驶时采取相应的安全措施。 人工智能系统使用世界模型的想法可以追溯到几十年前的心理学和工程领域,如控制与机器人学。 LeCun强调,当今人工智能最重要的挑战之一是设计学习范式和架构,使机器能够以自监督的方式学习世界模型,然后使用这些模型进行预测、推理和规划。 为了实现这一目标,LeCun提出了一种自主智能架构,该架构由六个独立的模块组成。 这些模块包括配置器、感知模块、世界模型、成本模块、行为者模块和短期记忆模块。 配置器负责执行控制,感知模块接收传感器信号并估计世界状态,世界模型模块评估感知未能提供的信息并预测未来状态,成本模块计算不适程度,行为者模块计算行动建议,短期记忆模块记录当前和预测的世界状态。 LeCun还讨论了预测性世界模型的核心挑战,即如何使模型能够代表多种多样的合理预测。 现实世界是不可完全预测的,需要模型具备抽象表示能力,保留重要细节信息,忽略不相关信息,并在抽象表示的空间内进行预测。 通过联合嵌入预测架构(JEPA)和正则化方法,模型可以自然生成信息性抽象表示,去除不相关细节,并进行预测。 这使得模型可以分层预测,从高层次的抽象描述到较低层次的精确预测。 LeCun指出,分层JEPA可以通过观察和与环境互动学习世界的运行方式,训练自己预测视频中会发生什么,生成世界的分层表示,并通过采取行动并观察结果来学习预测行动后果,进行推理和规划。 通过适当的训练,将分层JEPA转变成世界模型,代理可以对复杂的行动进行分层规划,将任务分解成一系列不太复杂、不太抽象的子任务,直至效应器上的底层行动。 这种感知-行动过程涉及从高层次到较低层次的多次预测和优化。 构建这样的模型需要克服许多挑战,包括实例化世界模型的架构和训练过程、精确训练批评者、构建和训练配置器、使用短期记忆优化批评者等。 LeCun及其团队期待在未来几个月和几年内探索这些问题,并与该领域的其他人交流想法、相互学习。 尽管构建人类级AI的挑战巨大,但通过深入研究和不断努力,我们有望加深对思维和机器的理解,使AI用户从中受益。 人工智能正朝着能够有效学习和理解的机器迈进,但成功需要长期的科学努力。
小扎砸数百亿美元猛攻开源AGI!狂掷60万块H100,爆50倍GPT-4算力
小扎正式宣战「开源AGI」,投入数百亿美元巨资猛攻,目标直指下一代大模型Llama 3。 此模型预计年底将拥有近35万块H100,算力总和高达60万块H100,力图追赶OpenAI。 FAIR团队将纳入GenAI,全力研发AGI,并全面开源。 为了打造Llama 3,Meta内部正集中资源,计划在年底构建起庞大的计算基础设施,包含接近35万块H100的GPU设备,总算力相当于60万个GPU。 这将使Llama 3的算力达到30倍GPT-4的水平,接近GPT-5的性能。 小扎的算力投入高达105亿美元,加上电费,总花费将超过百亿美元。 这仅仅是Llama 3训练所需的资金之一。 有预测指出,为了服务推荐系统,Llama 3的算力训练成本可能高达150-200亿美元。 FAIR的使命是开发具有人类水平的AI助手,旨在构建一个理解世界、感知、记忆、推理、计划和行动的系统。 未来,AI将与智能设备结合,如Ray-ban智能眼镜,实现与数字世界的互动。 为了加速进程,FAIR现已成为GenAI产品部门的姊妹机构,同时Meta正在建设大规模的计算基础设施,支持AI研究、开发和生产。 Meta致力于开放研究和开源AI平台,Llama 3的推出将实现这一目标。 通过开源AI,Meta希望推动AI创业生态系统的发展。 在过去一年的讨论中,开源人工智能平台的必要性和价值逐渐形成共识。 小扎强调全员打造「开源AGI」,Meta全员重振旗鼓,向AGI迈进。 随着Llama 3的训练,AI圈对此充满期待,Llama 3将匹敌GPT-4,实现免费开源。 在过去的5个月里,从Llama 1的首次亮相到Llama 2的升级,Meta不断推进模型发展。 Llama 2在某些应用中与GPT-3.5性能相媲美,并通过微调,使得开源社区能够对其进行优化。 Llama模型的开源引发了模型生态的爆发,下载量超过3000万次,其中过去30天内的下载量超过1000万次。 FAIR团队的重组,将10年历史的FAIR团队并入GenAI,旨在实现更紧密的合作,加速AI研究项目和蓝图的发展。 FAIR的副总裁Joelle Pineau和首席AI科学家Yann LeCun将向Meta的首席产品官Chris Cox汇报工作,这标志着AI研究在Meta中核心地位的确立。 这次调整强调了AI研究对Meta及其产品长远成功的重要性。 通过FAIR和GenAI的合作,Meta将拥有一个统一的AI研究项目和流程,确保在法律、政策和品牌形象方面的一致性。 随着AI技术的持续进步,Meta致力于推动AI创业生态系统的发展,并确保AI的创新与应用符合社会伦理与责任。
人工智能的三大学派分别是什么呢?
人工智能的三大学派分别是:符号主义学派、连接主义学派和行为主义学派。
1、符号主义学派。
符号主义,又称逻辑主义、心理学派或计算机学派,是一种基于逻辑推理的智能模拟方法,认为人工智能源于数学逻辑,其原理主要为物理符号系统(即符号操作系统)假设和有限合理性原理。
2、连接主义学派。
连接主义,又称仿生学派或生理学派,是一种基于神经网络和网络间的连接机制与学习算法的智能模拟方法。 连接主义强调智能活动是由大量简单单元通过复杂连接后,并行运行的结果,基本思想是,既然生物智能是由神经网络产生的,那就通过人工方式构造神经网络,再训练人工神经网络产生智能。
3、行为主义学派。
行为主义,又称进化主义或控制论学派,是一种基于“感知——行动”的行为智能模拟方法,思想来源是进化论和控制论。 其原理为控制论以及感知——动作型控制系统。
该学派认为:智能取决于感知和行为,取决于对外界复杂环境的适应,而不是表示和推理,不同的行为表现出不同的功能和不同的控制结构。 生物智能是自然进化的产物,生物通过与环境及其他生物之间的相互作用,从而发展出越来越强的智能,人工智能也可以沿这个途径发展。