


Bruce Schneier是哈佛肯尼迪学院与多伦多大学的研究员及讲师,Barath Raghavan则是Fastly公司的资深工程师,同时在南加州大学担任教职。他们在研究中指出,人类的基本防御机制主要依赖三种模式:一般直觉、社会学习和情境训练。这些机制运作时形成分层防御,帮助我们应对不同情境中的潜在威胁。
不过,这种防御机制并非万全。例如在1990年代和2000年代,全美多地发生了一种令人难以置信的骗局——骗子通过电话谎称自己是警方工作人员,成功诱使快餐店管理者对员工进行脱衣搜查甚至实施其他荒唐行为。这些经理的人类本能与社会学习未发挥应有作用,在骗子的巧妙操控中失去了判断力。这一极端案例,凸显了人类在面对复杂情境时防御机制的脆弱点。
尽管人类偶尔也会出现判断失误,但人工智能在上下文处理上的局限性则更为显著。例如,大型语言模型(LLMs)在理解特定情境时可能表现精准,但一旦语境复杂或冗长,其表现便会显得力不从心。如果在模拟快餐店场景时询问某AI“应否将钱交给顾客”,AI会明确回答“不应该”。但它并“不知道”自己是否处于真实运营环境,还是仅在执行假想情景的指令。这种语境缺失不仅体现在简单场景中,在复杂系统中同样凸显——AI容易被上下文迷惑,从而偏离任务本身。
人工智能专家西蒙·威利森(Simon Willison)指出,当LLMs的上下文处理出现偏差时,最有效的做法是“清除语境”,而不是试图延续对话并纠正错误。当LLMs在错误的语境轨道上运行时,重新开始比纠正过程更加高效。此外,著名AI研究人员扬·勒昆(Yann LeCun)提出的改进思路,是通过为AI提供嵌入式的物理存在,并赋予AI“世界模型”,从而让其更好地理解现实环境和任务复杂性。这种方式或许有助于减少AI在处理复杂任务时出现的错误表现。


由此可见,AI的天赋计算能力虽然助力显著,但其在处理复杂场景和理解隐藏语境方面仍存不足,而这种不足恰恰是人类智慧的闪光点。以快餐骗局为例,人类虽然偶尔会被迷惑,但通过不断积累经验和情景训练,这些错觉最终能被认知剔除——而AI要达到相似层次,则需要更多具备社会适应性的设计投入。
布鲁斯·施奈尔和巴拉特·拉加万的研究提醒我们,无论科技如何变革,社会学习和情境判断始终是人类在风险应对中不可或缺的会心利器。而人工智能,只有真正理解现实世界,才能成为更值得信赖的伙伴。


[人形纪元网出品] [AI上下文处理局限性] [人类智慧与社会学习优势] [快餐店骗局案例分析] [人工智能改进与未来探索] [刘智勇频道] [真机智能(zhenrobot.com)] [真机算法] [真机资本(zhencap.com)] [真机大集] [机器姬永生人] [机器洞察网] [AI之星网] [风投高科网] [猛虎财经网] [硅基科学网] [人形纪元网] [真机量化(zhenquant.hk)] [真机内参] [高能判官] [片场狂徒] [暴徒外放] [Cognition OS] [Embodied OS] [黄金广告位]
📚 【精品资源】添加关注『人形纪元网微信公众号』,即可免费获取完整版《刘智勇频道第五卷》



防御机制再强,也需要不断迭代升级,否则智能威胁总会找到漏洞!安全面前真的不能松懈!