
如今,已开放了备受期待的2025年世界人工智能会议和全球人工智能会议。在早晨的主要演讲中,杰弗里·辛顿(Geoffrey Hinton)现年77岁的“深度研究之父”(Turing Award)获得了诺贝尔物理学奖的获得者,讨论了人工智能的历史,语言模型的本质以及人的讲话中的人和AI的共同结构。他还特别谈论了DeepSeek,但他认为这种方法无效。 Hinton研究了过去60年来开发AI的两种主要途径:一种是“逻辑”,其推理为主要,而另一个是基于模拟人类识别的“连接” - 即通过联系,研究和理解来实现智能。他认为,Lead语言怜悯更接近后者,而不是象征性的减少,而是从Blur中获得关联的收购。她想起了一个早期的小型模型他于1985年发展,认为当今的大语言模型本质上是“其后代”。尽管当前模型具有更深的网络结构和较大的参数大小,但主要机制并未改变。 “语言模型的理解方式与人们理解语言的方式相同。”欣顿强调,一旦大型模型具有比人更强的智慧,它就不会解决问题。 “有些人认为当它们变得聪明时,我们可以将它们关闭,这是不现实的。他们会鼓励控制机器的人不要杀死它。”他说,人们更像是“ Entertairingi拥有老虎作为宠物。”“保持老虎的唯一途径是训练它,以使您不攻击,或者您会杀死它。” Hinton建议,主要的AI国家或世界主要力量应该建立AI安全机构的国际社会,以研究如何练习高级技术,以使其与众不同,而不是一个与众不同的技术。logy练习AI是明智的,细胞神经网络,信息系统应用,马尔可夫的决定 - 制定过程,神经网络,认知科学等对人的威胁。以下是杰弗里·欣顿(Jeffrey Hinton)在2025年的现场演讲的笔录:亲爱的同事,您的卓越,领导者,妇女和绅士,首先,感谢您给我这个机会,分享了我对AI历史和未来的个人看法。在过去的60年中,AI开发有两种不同的范式和途径。一个是逻辑范式,它是上个世纪的主流。人们认为,智力的本质在于推理,以及通过符号政策通过象征性表达来实施推理,以帮助我们更好地了解世界。另一个是基于生物学的范式,治疗和冯·诺伊曼(Von Neumann)同意,据信,智力的基础是研究,了解网络连接的速度,以及符合进行转换之前的前提。根据这两种理论,是不同类型的AI。符号AI集中在数字上,以及这些数字如何成为主要问题,心理学家具有完全不同的理论 - 他们认为数字的含义在于一系列的语义特征,这些语义特征使它们生存使其成为独特的符号。 1985年,我创建了一个小型模型,并试图结合这两种理论,以了解人们如何理解这些词。我为每个单词设置了许多不同的素质。在记录上一个单词的特征之后,我可以预测下一个单词是什么。在此过程中,我要存储任何句子的Innestead,我做了句子并预测下一个单词。相关性的知识取决于不同单词的语义特征之间的关系。如果您问未来30年将会发生什么,您可能会看到开发轨迹的一些趋势。十年后,有些人遵循该模型的模型,但大大扩展了规模,以使其成为自然语言的真正模拟。二十年后,计算周开始接受使用特征向量嵌入来表达语义的使用。另外30年后,Google发明了变压器,OpenAI研究人员向其人民展示了。因此,我认为今天的大语言模型是当时我的微语言模型的“后代”。他们使用了很多单词BSOME输入,采用了更多的神经元结构层,并且由于需要处理大量模糊数字,研究的特征之间还建立了更复杂的相互作用模式。但是,就像我制作的小型模型一样,理解大语模型就像人类一样 - 主要逻辑是将语言更改为特征,然后以完美的方式包含这些功能,这正是大语言模型在各个层面上所做的。所以我认为大语言模型与人们理解的方式相同和语言。将乐高块作为类比,可以更好地解释“理解句子”的含义。符号AI是在清晰符号中更改内容的符号,但不是人会以这种方式理解。乐高砖可用于形成任何3D形状,例如小型汽车型号。如果每个单词都被认为是一个多维的乐高积木(也许有成千上万的尺寸),则该语言成为一种建模工具,可以随时与人们交谈。仅命名“构建块” - 每个“构建块”都是一个词。但是,在歌词和乐高积木之间存在许多差异:可以根据情况调整单词的象征形状,而乐高积木的形状是固定的;乐高砖的分裂是固定的(例如进入方形孔的方形构建块),但是语言中的每个单词似乎都有许多“武器”,并且有必要通过适当的“握手”方法与其他单词进行交互。 “形状” ng单词chanGE,“握手”方法也会改变。在更改单词的“形状”(即)时,它是下一个单词的“握手”所独有的,从而产生了新的含义。了解语义是人脑或神经网络的主要逻辑,类似于通过氨基酸的不同组合形成重要结构的蛋白质。因此,我认为人们理解始终工作的语言和大型模型的方式是什么,人们可以像大语言模型一样具有“幻想”,因为我们还将做出一些虚构的表情。软件知识是无限的。尽管存储LLM的硬件被破坏了,只要软件存在,它就可以随时“复兴”。但是,为了实现这种“永生”,晶体管需要Ginherit高功率才能产生可靠的二元行为,这一过程很昂贵并且无法利用硬件中不稳定的相似特征 - 它们是模拟的,并且每个计算结果都有不同的结果ation。人的大脑也是模拟的,而不是数字。神经元的过程是 - 触发每次是相同的,但是所有的神经元的连接都不同。我无法将自己的神经结构移至其他人的大脑,从而导致人类大脑之间知识的传播小于硬件。该软件与硬件无关,因此可以是“无尽”的,也可以带来低功耗的好处 - 人脑只能以30瓦的速度工作。我们的神经元连接到万亿,而没有花费大量钱才能制造出完全相同的硬件。却问题是,在模拟模型之间转移知识的效率非常低,并且我不会直接向他人展示大脑中的知识。 DeepSeek的方法是将大型神经网络的知识转移到小型神经网络,即“蒸馏”,类似DS给学生,学生已经学会了通过举重来表达他们。但是这种方法非常有效。总而言之,它通常只有100片信息。即使是理解的,它也只能通过每秒100位。在数字智能之间转移知识的效率非常高。当许多在不同硬件上运行的相同神经网络软件的副本时,知识可以共享平均位。如果代理在现实世界中运作,那么这个优势就会更清晰 - 可以连续加速和复制它们,许多代理商会学会多个代理商并分享权重,模拟或软件无法做到。生物计算功耗很低,但是知识很难共享。如果能源和计算的成本较低,情况将会更好,但这也使我想起 - 几乎所有专家都认为,我们会比人类更聪明。人们习惯于成为最聪明的生物,很难想象AI的场景不仅仅是人。实际上,我们可以改变角度:由于鸡场上的鸡不了解人,我们创建的AI代理人将帮助我们完成任务。他们可以复制自己,评估子目标,并找到更多的控制权以生存和实现目标。有些人认为当AI变得非常强大时可以杀死AI,但这并不现实。他们可以像操纵3岁的成年人一样操纵人,鼓励控制机器的人不要杀死它。这就像把老虎当作宠物。小熊很不错,但是他们长大后会伤害人们,而将老虎作为宠物通常不是一个好主意。面对AI时,我们只有两个选择:要么训练它以免伤害人,要么“删除”它。但是,AI在医疗,教育,气候变化,新材料中发挥了重要作用,可以提高所有行业的效率。我们无法摆脱它 - 即使一个国家向其他Bansans投降了AI。因此,如果y您希望人们生活,您必须找到一种培训对人不利的人工智能的方法。我个人认为,根据网络攻击,致命武器和错误信息操纵等领域,国家很难根据其利益和意见。但是,出于“人类控制世界”的目的,国家存在共识:如果任何国家找到一种防止AI操纵世界的方法,那么它肯定愿意分享它。因此,我建议世界上主要的AI国家或世界主要大国必须建立一个由AI安全机构组成的国际社会,以研究如何培训高智能AI良好的训练 - 它与训练AI的技术不同。各国可以在主权范围内学习,然后分享其结果。尽管我们不知道该如何做到这一点,但这是长期以来与人类面临的最重要的问题,所有国家都可以在这一领域合作。谢谢一切。