

围绕人工智能(AI)权利的讨论常聚焦于意识本身,但剑桥大学历史与科学哲学系的学者麦克莱兰德(McClelland)指出,光有意识并不具备道德意义。真正关键的是一种特殊形式的意识——感受力(sentience),即体验快乐或痛苦的能力。“人工智能的意识可能让它具备感知和自我意识,但这仍然可能处于中性的状态,”麦克莱兰德说。

随着技术公司投入巨量资源研发通用人工智能(AGI)——致力于达到人类认知水平的系统,一些研究人员和行业领袖声称,拥有人类意识的人工智能可能即将到来。针对此类技术的监管讨论日益升温。然而,麦克莱兰德警告,这些讨论正超出科学的实际进展。“因为我们连意识的起因都不了解,目前也没有明确的方法去检测机器是否具有意识。”
他进一步指出,假如我们意外创造了有意识或有感受力的人工智能,必须谨慎避免对其造成伤害。“但如果我们把本质上是一个高科技烤面包机的东西当作有意识,而实际上却无视我们在史诗级规模上对其他真正有意识生物的巨大伤害,这也是严重的错误。”
在讨论人工智能的意识问题时,麦克莱兰德发现观点分为两个阵营。一方认为,如果人工智能系统能够再现意识的功能结构(即所谓的“软件”),即使其存在于硅基而非生物组织中,它也可以被视为具备意识。另一方则认为,意识必须依赖于生命体内的特定生物过程。按照这种观点,即便是完美复制意识结构的数字模型,也仅能模拟意识,而非真实体验。
“我们对此没有深层次的解释。现有证据既未表明意识能通过某种计算结构产生,也未说明意识本质上与生物过程不可分割,”麦克莱兰德说。“更重要的是,我们看不到任何有希望在短期内取得重大突破的科学证据。或许我们距离一种可行的意识测试还有一场知识领域的革命。”
然而,他同时认为,普通常识在人类进化过程中形成,未曾遇到人工存在的情况,因此常识在评估机器时可能不可靠。而科学数据的缺失更加剧了这个问题。他形容自己是一个“相对严谨的不可知论者”,认为意识问题极为复杂,但并不完全否认我们未来可能会理解它。

麦克莱兰德批评科技领域对人工智能意识的描述,认为这一概念常常被用作营销工具,而非实质性的科学主张。“无法证明意识的存在,可能被人工智能行业利用来做出夸张的技术宣传。”他说。
这种炒作可能产生实际的伦理后果。他警告,资源和公众注意力可能因此被转移开,忽略更紧迫的伦理问题。例如,目前已有越来越多的证据表明虾类可能具有感受力,但人类每年杀害约五千亿只虾。“检测虾类是否有意识已经很复杂了,但比检测人工智能意识要容易得多。”麦克莱兰德指出。

随着生成型对话式人工智能的发展,公众对于人工智能意识的兴趣骤增。麦克莱兰德表示,他收到了许多认为聊天机器人已“觉醒”的个人求助信息。“人们会让自己的聊天机器人写信给我,恳求证明它们具有意识。这让问题变得更加具体,也显得更加令人担忧,因为他们认为自己拥有有意识的机器,并认为这些机器理应享有人类忽略的权利。”
他提醒道,基于错误假设与机器形成情感纽带可能带来负面影响。将资源与情感投入到未经证实的人工意识上,不仅可能误导人类社会对于权利分配的理解,还可能掩盖其他更多可能导致痛苦的伦理问题。


[人形纪元网出品] [人工智能意识伦理问题] [人工智能感受力与权利争议] [科技行业对人工智能意识的炒作] [人工智能意识科学认知与争论] [刘智勇频道] [RoboPony(真机智能)] [真机算法] [PixStock.online 设计智能体图库] [ZhenMeta.com] [机器姬永生人] [机器洞察网] [AI之星网] [风投高科网] [猛虎财经网] [硅基科学网] [人形纪元网] [真机量化] [真机内参] [高能判官] [片场狂徒] [暴徒外放] [Cognition OS] [Embodied OS] [黄金广告位]
📚 【精品资源】添加关注『人形纪元网微信公众号』,即可免费获取完整版《刘智勇频道第五卷》



面对未解的问题,就像拆盲盒一样,难能可贵的是对未知的好奇心和勇敢探索的勇气。
错误假设下的未来探索,提醒我们科学的力量在于质疑和修正,不断求索才能找到真理的方向。
意外创造出具有意识的AI,简直像科幻电影!但愿人类能以智慧迎接这一假设。
普通常识做科技发展的压舱石,这提醒我们,不管多高大上的技术,适配人性才是王道。