切换到宽版
  • 602阅读
  • 0回复

[智能应用]为什么不能赋予人工智能道德伦理观念? [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106166
金币
2179
道行
19523
原创
29307
奖券
17275
斑龄
190
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 20019(小时)
注册时间: 2007-11-29
最后登录: 2024-11-23
只看楼主 倒序阅读 使用道具 楼主  发表于: 2022-01-18
— 本帖被 兵马大元帅 执行锁定操作(2024-04-22) —
据外媒报道,来自印度班加罗尔国际信息技术研究所的两位研究人员提出一个观点,如果想让人工智能拥有人类的道德伦理观念,就必须教它像人类一样进化出道德伦理观念。



论文题为“人工智能和自我意识”,描述一种被称为“弹性身份”的方法。研究人员表示,通过这种方法,人工智能可能学会获得更大的主动控制感,同时了解如何避免“附带损害”。

简而言之,研究人员建议,通过教人工智能在道德上与人类更加一致,让它学会何时为自己优化,何时为群体利益优化。

根据论文所述,我们的自我意识并不局限于我们身体的界限,而是经常扩展到我们环境中的其他物体和概念。这形成了社会身份的基础,建立一种归属感和忠诚感。同时,研究人员描述一种利他主义和自私行为之间的平衡,在这种平衡中,行为主体能够理解道德上的细微差别。



不幸的是,道德是无法计算的。几千年来,人类一直试图理清每个人在文明社会中的正确行为方式,而现代社会缺乏乌托邦式国家,我们仍在寻找最终答案。至于人工智能模型到底应该具有什么样的“弹性”措施,这更像是一个哲学问题,而不是科学问题。

所以,我们真的希望人工智能能够以人类的方式学习伦理道德观念吗?要知道,我们的社会伦理观点是在无数次战争的炮火中锻造出来的。而且,教会人工智能我们的伦理道德观念,然后训练它像我们一样进化,听起来像是科幻电影中人工智能统治人类的前兆。
山庄提示: 道行不够,道券不够?---☆点此充值☆