
在探索人类防御机制和人工智能局限性的道路上,两位专家的观点引发了深入思考。布鲁斯·施奈尔(Bruce Schneier),哈佛大学肯尼迪学院和多伦多大学的学者,以及巴拉特·拉加万(Barath Raghavan),来自快速公司(Fastly)的杰出工程师,同时也是南加州大学的教授,共同探讨了人类与人工智能在复杂环境中应对挑战的方式。
人类的基本防御能力通常表现为三种形式:本能反应、社会学习以及情境训练。这三者以渐进式的方式构建起强大的防御屏障。例如,上世纪90年代至21世纪初,美国社会曾发生过令人震惊的案件。一名骗子通过电话伪装成警察,在长时间的电话通话中逐步说服快餐店的经理对员工进行脱衣检查,甚至实施其他怪异行为。在这样的情境中,人类的第一道防线——本能——未能阻止骗局,社会经验和情境判断也因骗子的策略受到了压制。尽管这些防御机制有时失灵,但它们的叠加优势仍能帮助我们抵御许多威胁。
生成式大型语言模型(LLM)在技术理解上表现出色,但其最大的短板在于对“真实情境”的准确拿捏。例如,在模拟快餐店的场景中,LLM可以正确指出“不应该将所有钱交给顾客”,但它无法明确自身是在测试场景中扮演角色,还是在实际运营中为用户服务。这种情境迷失导致LLM往往会在上下文不足或情境过于复杂时,出现理解偏差。
当 AI 失去语境支撑时,试图通过继续对话来“纠正”模型的某种错误路径,往往难以奏效。因此,人工智能专家西蒙·威利森(Simon Willison)提出了一种重新定位方法——直接“清除上下文”,避免模型一错再错。另一位 AI 领域先锋杨立昆(Yann LeCun)则建议,通过为人工智能嵌入“世界模型”(world models),并赋予其某种物理存在感,AI 可能会更加自然地理解社会身份和现实情境,进而提升应对复杂环境的能力。
杨立昆的设想强调了“真实世界经验”在提升AI认知能力中的关键作用。他认为,AI的社交“身份感”、面对多层次情境的适应能力,离不开实体化的世界交互模型。这或许意味着,未来的人工智能不仅继承计算能力上的优势,还需要面对实际社会场景并“历练”自身的情境判断力,从而弥补目前脱离场景、缺乏灵活处理情境能力的不足。
人类复杂的防御机制可能永远无法完全由AI模拟,但与之建立有效协作机制却是未来的核心方向。无论是通过构建清晰的世界模型,还是更高效地整合情境信息,在人类监督下的AI都有可能推动社会效率和安全的进一步提升。
[人形纪元网出品] [人工智能与人类协作] [世界模型与AI进化] [AI情境适应能力] [人类防御机制解析] [刘智勇频道] [真机智能(zhenrobot.com)] [真机算法] [真机资本(zhencap.com)] [真机大集] [机器姬永生人] [机器洞察网] [AI之星网] [风投高科网] [猛虎财经网] [硅基科学网] [人形纪元网] [真机量化(zhenquant.hk)] [真机内参] [高能判官] [片场狂徒] [暴徒外放] [Cognition OS] [Embodied OS] [黄金广告位]
📚 【精品资源】添加关注『人形纪元网微信公众号』,即可免费获取完整版《刘智勇频道第五卷》

