切换到宽版
  • 491阅读
  • 0回复

[智能应用]人工智能可能有情感吗?基于海德格尔哲学的思路 [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106166
金币
2179
道行
19523
原创
29307
奖券
17275
斑龄
190
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 20019(小时)
注册时间: 2007-11-29
最后登录: 2024-11-23
只看楼主 倒序阅读 使用道具 楼主  发表于: 2021-08-14
— 本帖被 兵马大元帅 执行锁定操作(2024-02-21) —
         人工智能是否可能具备情感呢?我们是否能够让人工智能具有喜怒哀乐呢?在学术界,还真有一个专业的方向去研究此类问题,此方向的学名叫“人工情感”。然而,目前主流的人工情感研究,其注意力乃是放在对于人类情感的自动检测之上的,而不是放在如何对于计算机自身的情感模型的建模工作之上的。换言之,这样的程序或许能够发现你处在亢奋之中——然而,这样的机器本身却不处在任何一种心理情绪之中。

有人或许会问:我们为何要设计出自身具有情绪的人工智能体呢?难道“始终冷静”不应当成为人工智能体胜过人类的优点之一吗?

笔者认为,这种观点忽略了情绪能够对认知效率的提高所能够做出的贡献。具体而言,在认知任务所需要消耗的资源总量相对有限的情况下,针对特定任务的适当的紧张情绪,的确能够协助认知主体将认知资源首先绑定在相关任务上,由此提高主体对于环境的适应性。情绪的这一功能不仅适用于人类,也应当适用于人工智能体,因为对于人工智能体来说,认知资源总量的有限性依然是制约系统性能发挥的一个最重要的边界性因素。此外,如果我们希望未来的人工智能体需要与人类产生紧密的人—机协作的话,我们就必须预设机器能够对人类的情绪能够产生基本的共情——而这种共情本身也将倒逼人工情绪的研究能够更上一层楼。

然而,需要注意的是,很少有人系统意识到德国哲学家海德格尔的情绪理论对于人工情绪研究所能产生的启发意义。现在笔者就将这个话题,略发表几点管见。

我们知道,海德格尔的现象学被称为“此在现象学”(“此在”的德文是“Dasein”,这是海德格尔对于现象学主体的一种富有个性化的表达方式)。他在对此在的生存结构进行描述的时候,引入了所谓“本真性存在”与“非本真性存在”之间的二元区分,并通过这种区分凸显了此在之存在的“本己性”的不可消除性。为了理解“本真性存在”与“非本真性存在”之间的二元区分,我们不妨回顾一下美国电影《人工智能》中的一个情节。在电影中,一对夫妇因为丧子,而收养了一个叫“戴维”的小机器人,以作为原先爱子的替代品。在一种高度理想化的科幻场景中,这样的一台机器人当然是按照完美的人工智能产品的设计蓝图而运作的:它能够理解人类语言,产生与人类意向很类似的意向,甚至也貌似与人类分享了类似的生活世界图景。然而,这样的一台机器人依然难免为自己的存在的“本己性”而苦苦思索:它需要周围的人类将其确定为一个不可取代的、且具有唯一性的存在者,而不仅仅是一台可以被随时加以复制、销售、购买与销毁的机器。这种思索其实迫使“戴维”走向了某种意义上的形而上学思考,譬如康德对于人之本质的思考。用海德格尔的哲学术语来说,当“戴维”进入这种思考的时候,他就完成了从“非本真状态”到“本真状态”的跃迁。

很明显,在上述科幻电影的场景中,戴维自身的机器人身份,以及周围人类对于这一身份与人类自身之间差异的警觉,是促使戴维思考其自身存在之独特性的重要契机。而与之相较,在思考者本身就是人类的情况下,这一警觉本身往往就会被日常俗务的平庸性所淹没。在海德格尔看来,这种淹没的结果,就是所有个别的人都被统一塑造成所谓的“常人”(德语“das Man”)——亦即缺乏自己的主见,根据集体行动的大趋势而人云亦云的社会成员。

——那么,对于上述这种“常人状态”的摆脱,又是如何可能的呢?海德格尔所给出的答案乃是“向死而生”。简言之,在他看来,此在恰恰是意识到了死的不可替代性,以及死对于其所有生存可能性的终结性意义,他或她才能意识到自身的存在方式的独特性。

需要注意的是,在海德格尔哲学的语境中,“向死而生”的机制的成立,并不是归纳逻辑的运作所导致的衍生品(比如这样的一种归纳:因为张三死了,李四死了,所以,看来我也会死),因为“无论遭遇到多少死亡案例,我们都无法计算出死亡的确定性”。或说得更清楚一点,在海德格尔看来,在日常的闲谈中对于死亡事件的涉及,仅仅是将死亡当作一个自然事件来看待罢了,而不是将其视为对于本己的可能性的总的终结。前者与后者之间的根本差异体现在:对于死亡的谈及本身是一种在可能性空间中的“占位者”,而这种谈论本身就预设了死亡的反面(因为只有活着,才能谈论别人的死亡);而与之作对比,具有本己性的死亡,却恰恰意味着这上述这整个可能性空间自身的湮灭(因为倘若连自己都死了,也就没有资格进行任何闲谈了)。或换个角度来表述:前一种对于死亡的讨论具有对于死亡的“类型化”处理倾向(即将所有人的死亡都视为一类),而后一种对于死亡的涉及才真正具备了死亡的“个体性”(即将“我的”死亡放置到一个比其他任何人的死亡更具基础地位的层面上)。而恰恰是这样的一种死亡态度的产生,才为一种最具“基础本体论”意味的情绪——“畏”(德语“Angst”)——的产生,提供了最重要的契机。具体而言,与具有意向性活动特征的情绪“怕”不同,在海德格尔的笔下,“畏”的对象不是具体的事件(如怕考学失败、婚姻失败,等),而是所有事件展开之可能性的终结——换言之,“畏”的对象乃是对于所有存在的虚无化,或者是对于各种用以体现个体价值的具体行为的总的终结。从这个角度看,海德格尔而所说的“畏”是不能被庸俗地理解为“贪生怕死”的(因为庸俗意义上的“贪生怕死”,仅仅是指对于荣华富贵等通常意义上的俗常生活的留恋),而只能被理解为对于本己性的丧失的恐惧。

海德格尔的上述阐述,显然带有非常强的文学色彩。那么,一个最终面向工程学实践的人工情绪的研究者,为何要对海德格尔的上述现象学描述表示出兴趣呢?笔者认为,上述这个问题其实是可以被置换为如下两个更为具体的问题的:

既然海德格尔对于“畏”的讨论是以“向死而生”的现象学结构为基础的,那么,我们需要在人工智能体内植入“死”的概念吗?

我们又该如何在人工智能体内植入“死”的概念呢?

笔者对于第一个问题的回答如下:

在现有的人工情绪研究的主流模型——OCC模型——之中,对于情绪的标记都是以对于特定目标与特定现状之间的差值评估为前提的。因此,情绪的产生本身的真正驱动力,便主要来自于外部环境与其一般认知架构之间的互动活动,而与特定认知主体的个性设置关系不大。从这个意义上说,现有的认知科学情绪模型,都是海德格尔笔下的所谓 “常人”模型,而缺乏对于“本真性存在”的维度的领悟。由此导致的结果便是:由此产生的系统自然就会缺乏产生某种超越于一般智能系统之表现的“卓越表现”的心理动力。然而,在某些应用场景下,我们却的确有理由希望系统能够给出这种“卓越表现”——譬如,在火星探险的应用场景中,如果系统所遭遇到的某些环境挑战的确是地球上的程序设计员所未预料到的,那么,系统在原则上就根本无法通过对于常规解决方案的调用来面对这些挑战。在这种情况下,这些系统就不得不通过产生某些应激情绪,以便调动所有认知资源,最终及时解决当下的难题。

——但是,为何这种对于认知资源的调动会与“死”的概念发生关联呢?要回答这个问题,我们首先得理解什么是AI语境中的“死亡”。然而,由于AI并非是碳基生命体,所以,我们自然就无法通过诸如“新陈代谢的终止”这样的针对生物体的话语结构来定义人工智能体的死亡。毋宁说,对于AI系统来说,“死”的真正含义,只能在功能主义的抽象层面上被理解为“对于其运行历史的记忆与可操控性的终结”。不过,即使从这个角度看,我们依然有理由认为AI系统是很可能会去“畏死”的。说得更具体一点,任何一个成熟的AI系统的运作,其实已经在其记忆库中积累了大量的运行经验,因此,系统的“死亡”——也就是系统自身的记忆的“清零”——将在根本上清除系统在历史中所学会的所有认知技能与思维捷径。因此,一个真正具有历史意识的人工智能系统,将不可能不珍惜其所获得的记忆路径,并不可能不“畏死”。在这种情况下,倘若某种会对系统的运行历史之安全性构成威胁的环境挑战真的出现了,系统的“畏死”情绪机制就自然会被激活,而由此调动所有的认知资源来回应该挑战,以便捍卫其记忆库的安全性。从这个角度看,只要我们所设计的AI系统在认知资源与硬件资源方面是具有有限性的,它就会因为对于这种有限性的意识而时刻意识到其记忆库的脆弱性,并由此产生对于“无法保卫记忆库”这一点的“畏”。由此看来,在人工智能中引入“畏”这种特殊情绪的理由,在根本上还是我们与我们引入广义上的人工情绪的根本理由相互贯通的,即在人工智能系统运作资源的有限性条件的约束下,人工智能的设计者最终就不得不为这些系统的应激性反应,提供某种不借助于慢速符号推理的快速行动通道,由此提高整个系统的适应性。

说到这里,有人或许会问:难道我们不能在保留人工智能系统的核心记忆之内容的前提下,不断更新存储这些记忆的硬盘系统,并不断更新相关的外围硬件,由此打造不会死亡的人工智能体吗?对于该问题,笔者的回应有两点:

第一,上述假设预设了硬件与记忆之间的完全可脱离性。不过,该预设却明显是违背所谓的“具身性原则”的——根据此原则,记忆本身所包含的身体图式是与特定的硬件配置相关的,而无法兼容于完全不同的新的硬件设置。考虑到“具身性原则”本身是具有一定合理性的,所以上述“可分离性预设”可能就不是真的。

第二,抛开上面这点不谈,我们的确有实践上的理由去认定去制造一个“不会死”的人工智能体,反而会给我们造成麻烦。这种麻烦一方面体现在:人工智能体对于自身“不死性”的认知,会使得相关的“畏死”机制的产生也成为了无本之木,最终使得其对于特定环境挑战的威胁感到无动于衷;另一方面,“不会死”的人工智能在其记忆库中所积累的大量技能与思维捷径,也会因为没有机会得到清理而变得日益僵化,进而,这些系统对于新问题的处理能力也会有所下降。或说得再文学化一点:与人类社会类似,缺乏“新旧更替”的人工智能社会,也会因为缺乏生死之间的张力的消失,而最终失去产生前进的动力。

有的朋友或许还会问:难道我们就不担心对于AI系统之“本己性”的赋予,会产生对于人类非常不利的结果吗?

对此,笔者的回应是:人类制造人工智能体的一个非常重要的目的,就是要在人类肉身难以安全进入与撤出的某些未知环境内,让人工智能体取代人类去执行某些重要任务。在这种运用场景中,我们就很难设想相关的AI系统的信息处理方式是不具备主动性与创造性的,而“主动性”与“创造性”的动力之一就是某种对于“本己性”的预先领悟。换言之,对于“本己性”的预先领悟,乃是一个能够对未知环境进行积极探索的AI系统所应当具备的心智元素。当然,我们的确无法在逻辑上先验地排除这样一种可能性:在某些条件下,上述领悟也能够衍生出对人类用户不利的动机——但这一代价却是AI系统的设计者所不可能不承担的,因为“创造性”本身就意味着不可预期性。很显然,作为人类,我们就必须在如下两个选项之间进行二选一:第一,去设计非常愚蠢的,却不可能背叛我们的人工智能;第二,去设计非常机智的,却可能会在某些情况下背叛我们的人工智能”。不过,无论我们愿意如何完成这道选择题,“设计出非常聪明的,却不可能背叛我们的人工智能”却始终不是一个合理的被选择项,因此“聪明”本身就意味着“具备对于背叛主人的逻辑可能性的预估力”。

当然,上面所做的讨论,仅仅能够证明:海德格尔笔下的 “此在”的生存论机制对于通用人工智能的设计来说的确是具有很大的启发意义的,但这并不意味着我们已经在AI道的语境中具有了实现这一目标的成熟的技术路线图。
山庄提示: 道行不够,道券不够?---☆点此充值☆