本文围绕Manus爆火这一现象展开,深入剖析了Manus与通用人工智能体的差距,探讨了AI领域“套壳”和“蒸馏”情况,分析了机器取代人的困难性、大模型幻觉问题的解决办法,以及AI时代人才培养的新导向。
本文内容来源于北京邮电大学人机交互与认知工程实验室主任刘伟,在参加九派新闻直播九派圆桌《manus爆火,套壳还是创新》讨论时的发言整理,发布前已经过作者本人审阅。
【1】Manus离通用人工智能体差距较远
近期,Manus的爆火引发了广泛关注,其背后有着多方面的因素。从技术层面来看,Manus的核心技术在于多智能体系统的协同。它能够动态协调专用大模型,对这些大模型进行统筹调用,并将它们有序组织起来。在用户体验方面,Manus也表现出色,其界面和交互设计都做得相当不错。而且,当下大家都期待大模型能够落地应用,Manus顺应市场需求,在人力资源、金融等领域释放了一定的能量。
不过,Manus也存在炒作的成分,目前其邀请码“一码难求”。它未来的发展走向,取决于其技术能否经得起时间的检验。如果技术成熟,那么它可能会在人工智能领域走得更远;若技术还处于初级阶段,那可能只是一时的热闹。
实际上,“通用智能体”是大家一直以来的梦想,但以现有的数学和物理学知识,要实现“通用”是极为困难的。通用智能体具有主动性,它像人类一样,有自己的想法和需求,知道自己想要做什么、使用什么;其基本功能多样,既能炒股,又能筛选简历,还能下围棋等;并且,一个真正的智能体应该具备价值观。然而,现在的智能体普遍缺乏价值观,事实和价值无法对齐,常常会出现“机器幻觉”“机器错误”以及“机器欺骗”等问题。它们本质上还是被动的token,通过处理人为的NLP、自然语言里的符号,利用tranformer架构进行处理后输出结果,而这些输出的质量参差不齐。
Manus通过“规划 - 执行 - 验证”这三个独立代理的分工协作,实现了任务的分解、工具的调用和动态的修正,达成了全流程的自动化。例如在简历筛选过程中,它能够自动压缩文件、分析内容并生成排名报告,全程无需人工参与。但需要注意的是,Manus只有自动化过程是确定的,它所调用的如deepseek、claude等大模型存在不确定性。真正的智能包含不确定性,而自动化是由确定的流程、输入、处理、输出和反馈构成的。Manus中自动化成分较多,不确定性成分相对较少,所以它离通用人工智能体还有较大的差距。
【2】AI领域,“套壳”和“蒸馏”每天都在进行
Manus仅仅依靠售卖邀请码肯定无法回本。从本质上来说,它是一个集成系统,底层技术依赖于他人,门槛相对较低。与之相比,deepseek的门槛较高,因为它涉及到算法的优化以及一些工程难题。
Manus存在诸多不确定性和尚未解决的技术或原理性问题。数据方面,存在数据不完备、数据偏差和数据造假等问题,这些问题很难得到有效解决;算法方面,无论是deepseek、claude,还是Chat GPT,都基于transformer架构。该架构是多内存的神经网络系统,由线性函数和激活函数组成一个非线性的复合函数,这导致在反向传播过程中,权重分配具有不可解释性,形成黑盒。其“基因”里就存在“机器可能产生错误”的隐患,也就是“机器幻觉”。此外,在使用过程中,该架构还会受到很多噪声干扰,难以屏蔽,在实际工程落地时,会积累各种偏差和误差,导致应用落地困难。
虽然Manus是集成领域的开拓者,但要在这个领域保持领先地位,难度较大。春节期间,有消息称Open AI要起诉deepseek“蒸馏”问题。其实,在AI领域,“套壳”和“蒸馏”现象很常见,就像学生向老师学习、人与人之间的经验借鉴一样,属于正常情况。Open AI的奥尔特曼曾表示,大模型有五个发展阶段,分别是交互、推理、调用、创新和组织。目前,Manus更多地处于调用阶段,大多数实践还停留在较浅层次,因为深层的多智能体模型之间的协同工作非常困难。尽管目前能有让人眼前一亮的产品和系统已实属不易,但我们也要清醒地认识到,Manus的门槛相对较低,与DeepSeek或OpenAI最初出现时的影响力不可同日而语。我们既要保护这类创新,也要清楚其不足之处,继续推动其发展。
【3】机器想取代人,很困难
机器要取代人类是非常困难的,因为人类的智能远远超越机器智能。虽然机器智能在某些领域可以为人类提供帮助,如下棋、进行蛋白质结构分析等,但从机理上来说,人类的认知和机器的认知有着本质的区别。
目前,人工智能面临三个瓶颈。一是可解释性不足,存在黑盒和不透明的部分,无法做到举一反三;二是机器学习和人类学习机制不同,人类学习能够产生范围不确定的隐性规则和秩序,例如小孩学会一个新词后,能灵活运用到其他领域,而机器则可能出现张冠李戴的情况;三是人类的常识极为复杂,涵盖了生理、心理、物理、数理、伦理、法理等多个方面,融合形成了习俗和社会常识。
机器目前的编程相对单一,主要基于数理化过程。以大模型为例,它有两个支柱,一个是将word映射到欧几里得空间的token,形成包含多种属性的向量,如deepseek中有6000多个属性,不仅有数学属性,还有常识、上下文以及临近词关系等属性,通过计算向量来反映词与词之间的关系;另一个是attention注意力模型,通过三个参数Q、K、V计算得出上下文之间的关联度,即统计概率。用如此简单的方式来提炼人类的复杂认知,显然是不现实的,因为人类有很多非语言的内容,只可意会不可言传,甚至人类自己都难以解释清楚,机器更无法找到对应的语料。
虽然不能排除机器会产生意识,但机器意识和人类意识是两个不同的概念。人类意识更具穿透性和感性,而目前机器没有伦理和感性,仅仅是人类的工具,想要取代人类还非常困难。
【4】幻觉问题,单靠Manus解决不了
对于大模型的落地、工程化和应用来说,解决幻觉问题至关重要。如果一个系统可能产生无法控制的幻觉和错误,那么很少有人会愿意使用它,这会导致生产工程中出现错误和失误。因此,这个问题不是Manus能够单独解决的,需要大模型厂商进行系统思考。
近期,浙江大学的一位副教授提出利用交互式的与或逻辑关系来解决大模型中的不可解释性问题,即幻觉产生的原因。这种方法采用布尔代数中的基本函数,使大模型变得更加透明和可解释,从而控制输出的正确性。在中小规模的神经网络系统中,该方法已显示出良好的效果,但在聚系统大模型中,由于缺乏大模型进行测试验证,其有效性仍不确定。
另一种方法是RGA,即检索增强生成方法。通过比较不同大模型的输出,可以验证某个模型的性能,甚至通过人工检索来检查大模型是否出现幻觉,并纠正事实性或价值性的错误。目前,还在探索一种新的方法HRGA,将人机环境整合到系统中,以统一检测潜在问题。在关键的精密工业或安全领域,人的作用不可或缺,例如在核电厂等关键设施中,完全依赖机器监控是不可行的。因此,人机联合的检索增强生成方法HRAG可能会在关键部位或重要环节减少机器幻觉和欺骗的发生。
深入探究发现,transformer架构可能是产生机器幻觉的根本原因。去年10月左右,英伟达的CEO黄仁勋邀请了transformer架构论文的八位作者中的七位进行讨论,结果七位作者一致认为该架构存在许多缺陷和不足。所以,要从根本上解决机器幻觉问题,必须开发出不同于transformer架构的新技术,或许会有新的大模型或智能体出现来应对这一挑战。
【5】AI时代的人才不是专业导向,而是爱好导向
当前,多模态学习和强化学习成为研究热点。以deep seek为例,它在推理过程中主要依赖强化学习,大大减少了人为的微调和干预。其他一些模型也在这两方面投入了大量精力。
多模态学习旨在将文本、语音、图像、视频等多种状态进行综合处理,类似于人类同时运用视觉、听觉、嗅觉、味觉和触觉。但目前计算机或人工智能领域的多模态学习主要以计算为主,尚未达到人类的感性水平。它就像盲人摸象,只能关注到局部,如听觉、视觉或嗅觉,整合能力较弱。强化学习方面,其本质是奖惩机制,但人类的强化学习更为复杂,奖励和惩罚的含义并非固定不变,而机器的强化学习还处于比较简单的阶段,类似于小孩的奖惩模式,相对薄弱。
人类的学习除了奖惩,还包括反复训练以提高能力。目前多模态和强化学习采用的是人工智能领域常用的方法,难以颠覆强化学习的惯性,多模态学习也难以取得突破性进展。若要有突破,应进行综合性训练,而非单一训练。因此,目前的研究过于简单,将人类认知迁移到机器上的成分较少。我们期望成年人的强化学习和多模态学习机制能够迁移到机器上,这或许是通往通用人工智能的途径之一。
今年参加春节档电影座谈会时,发现当下很火的电影导演如饺子导演、郭帆导演,甚至卡梅隆导演都不是电影专业毕业的。由此可见,在AI时代,人才培养并非专业导向,而是爱好导向。西方之所以创造力不断,是因为物质文明发展到一定程度后,精神文明、对知识的渴望和创造力得以充分释放。
如今,很多有志青年充满理想和抱负,干劲十足。AI时代要求大家学会使用工具,善于向智能老师学习。教育也将发生巨大变化,以前获取知识困难,现在借助AI变得容易许多。如果青年人能够用好AI,甚至可以无师自通地做出颠覆性的工作,所以更应珍惜这个时代。
本文围绕Manus爆火这一热点,从多个维度深入分析了人工智能领域的现状和发展。指出Manus与通用人工智能体存在较大差距,AI领域存在“套壳”和“蒸馏”现象,机器取代人困难,大模型幻觉问题亟待解决,以及AI时代人才培养应转向爱好导向。呼吁人们既要关注人工智能的创新成果,也要清醒认识其面临的挑战,积极探索新的发展路径。
原创文章,作者:东海凝丝,如若转载,请注明出处:https://www.gouwuzhinan.com/archives/38176.html