切换到宽版
  • 848阅读
  • 0回复

[其他]机器人会成为终结者吗? [复制链接]

上一主题 下一主题
在线天人地

UID: 1627269

精华: 2
级别: 玉清道君
 

发帖
271570
金币
14421
道行
35906
原创
97
奖券
0
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 30135(小时)
注册时间: 2012-09-03
最后登录: 2024-09-22
只看楼主 倒序阅读 使用道具 楼主  发表于: 2018-01-10
— 本帖被 妞妞乐乐 执行加亮操作(2018-01-13) —
人工智能无疑是时下最为炙手可热的话题之一。5月27日,柯洁惜败阿尔法狗2.0,从李世石到柯洁,备受关注的人机大战再度以机器胜出告终,这使得人们不得不重新思考人类与人工智能的关系。

  机器人是否会成为终结者?人工智能“入侵”领域广泛,如何应对它带来的失业问题?是否应该限制和规范使用人工智能?人工智能挑战了现存社会的既有规范,如何处理人与机器的关系……日前,清华大学梅汝趝法学讲席教授冯象在华东师范大学就“机器人律师,机器人医生,然后……”题目开讲,针对与人工智能相关的就业和人机伦理等问题进行了阐述。  阿尔法狗的胜利

  在冯象看来,柯洁“几乎可以算是下出了人类最好的棋”,但这次没人事先指望柯洁能赢,包括“棋圣”聂卫平。“结果将是0比3,柯洁全输。”聂卫平在赛前作出这样的预估。  冯象用阿尔法狗做了一个假设:有一个相对地球而言高度简化的星球,该星球上人们最高的理想就是当一名围棋手,且只有下棋这一种职业受人尊敬,除下棋之外的职业均为辅助围棋这一职业而存在,如建筑业、木材制造业,人们将围棋作为生活的最高理想,大家共同追求这一目标。如果该星球也发展人工智能,并且也制造出了类似阿尔法狗的存在,还进行了人机大战,人类同样如同李世石和柯洁一样吃了败仗,那么该星球会面临什么问题?

  “第一个,如果围棋是最高价值、最高理想,一个人的成功与否的标准用棋艺高低来衡量,获得围棋冠军或者成为优秀的职业棋手在那个星球上是大家共同追求的最高成就,而且他们也有人工智能和阿尔法狗,那情况就会比较尴尬:下棋的意义是什么?生活的意义是什么?其次还有,一旦人工智能在游戏中超越人类,接下来比赛的意义就变了,不仅是比赛的组织形式,拿到冠军的人(注:此处指阿尔法狗的研发团队)不是最懂围棋的,而是最懂机器的。”

  对假设存在的星球而言,人工智能的问题非常简单,要发展人工智能就必须接受,不要就放弃发展。然而现实情况是,人工智能的问题并不是非此即彼的选择。阿尔法狗的运用范围只在围棋,而人工智能已经广泛应用于其他领域。

  人工智能“入侵”领域广泛

  人工智能的胜利远不止围棋这一领域。其中对人类自然语言领域的克服就已经有了不小成就,机器人微软“小冰”于5月正式出版新书《阳光失了玻璃窗》,该书总策划、湛庐文化副总编董寰此前对媒体透露,“小冰”看到一张图片后会产生灵感,并有感而发,创作现代诗词。另外,据微软“小冰”团队负责人李笛透露,“小冰”一开始写的诗句并不通顺,现在则已经形成了自己的风格。“小冰”几个月前曾在天涯、豆瓣、贴吧和简书四个平台上一共使用了27个化名发表诗歌作品,几乎无人察觉这些诗作非人为创作而生。

  会运用人类语言的机器人不止微软“小冰”一个,清华大学语音与语言实验中心(CSLT)研发的机器人“薇薇”也同样会作诗。经过中国社科院有关专家评定,“薇薇”通过了“图灵测试”,这意味着人类在语言层面已经无从分辨人工智能与人类。

  将来,在语言翻译等领域,人工智能也会大有作为。冯象说:“我应该就是翻译的最后一代人了,以后有了人工智能,人就没有必要去翻译了,还有什么意义呢?”

  除了语言和翻译,人工智能对法律领域的入侵也是显而易见的。2016年在乌镇举行的第三届世界互联网大会上,最高人民法院院长周强表示最高法将积极推动人工智能在司法领域的应用:“首先我们要开发人工智能,把AI技术同审判执行工作紧密结合起来。现在同案类推都是为人工智能的发展奠定基础。下一步就要通过算法,来全力推动人工智能在司法领域的应用。”

  几个月后,江苏省连云港市灌南县检察院正式运行“案管机器人”(即江苏省检察机关案件监督管理大数据应用平台)。在检察机关,案件登记、电子卷宗制作、审讯记录和法庭记录等工作大多是固定化的,“案管机器人”不仅可以承担大量此类简单重复的前期工作,还可以对办案检察官自动发出期限预警、风险预警、办案活动差错提示。

  被问及法律从业者在人工智能时代会受何影响,冯象直言:“在可以预见的未来,我想机器人在法院至少可以承担立案、准备文书等工作。”基于李开复所说的“五秒钟准则”,未来10年大部分人类需要思考5秒钟以下的工作都会被取代,由此,对于绝大部分要求明晰的法律案件,机器人也可以在短时间内做出精准判断。

  会带来失业但不会成为负担

  斯坦福大学人工智能与伦理学教授杰瑞·卡普兰认为,在不久的将来,人类再也不用劳动,因为人工智能正在不断的取代现有人类的工作。

  最近两年,人工智能领域不乏与失业潮相关的科学报告。2016年12月20日,美国白宫发布《人工智能、自动化及经济》报告。报告认为,未来10年至20年间,时薪低的工种受到人工智能技术的冲击最大。美国白宫经济顾问委员会(CEA)把各类职业按薪资水平排序,发现每小时工资低于20美元的工作中,83%将受到自动化技术的压力。更早,花旗银行联合英国牛津大学发布的报告《TECHNOLOGYATWORKv2.0》显示,中国77%的工作将会被机器人代替,远高于美国的47%和英国的35%。

  百分比数字不是考虑的重点,重点是人工智能在自动化作业、自动驾驶、合成智能、执行能力等诸多方面的优势明显大于人类,所以必然会给人类带来失业。这种失业既是过去完成时,也是现在进行时和将来进行时。

  被问及“人工智能影响劳动力和就业”的问题,冯象回应,“假如李开复是对的,未来10年有50%的工作会被人工智能取代,那么我们应该给那些失业者一个最低的生活保障”。冯象对未来就业前景同样不乐观:“过去生产力提高取代一部分人工作的同时会增加另一部分人的工作,但人工智能不是这样。(未来)肯定不会有现在这样高的就业率。假使一半人工作,另一半人不工作,那不工作的一半人也应该有一个有尊严的、自由的生活。可能我们可以通过税收或其他方式对社会财产进行再分配。”但他也认为,随着科学技术的发展和生产力的提高,未来的社会资源和财富肯定会大幅增加,可以让每个人过上较为舒适的生活,就业问题不会成为社会的负担。

  人机伦理问题要引起重视

  随着人工智能技术在许多领域的广泛应用,部分伦理困境开始摆在人们面前:机器人能否成为伦理主体?比如,无人驾驶汽车在提高生活便利性的同时也增强了安全性,然而,面对随时可变的复杂路况,人类是否真的可以将可能牵涉“生杀大权”的伦理选择交给机器人,这是人工智能带来的必须严肃思考的问题。

  人类该如何处理人机伦理问题?冯象提到阿西莫夫的著名科幻小说《我,机器人》里写到的机器人学的三定律:第一定律,机器人不得伤害人类,或坐视人类受到伤害;第二定律,除非违背定律一,机器人必须服从人类的命令;第三定律,除非违背定律一、定律二,机器人必须保护自己。“这三条定律从逻辑上来讲已经考虑到了很多实际情况,如果能做到当然是好,但很难。实际上,第一条已经被破坏了,用于军事用途的无人机就已经伤害了人类。”  谷歌在研发人工智能的同时也担心以这种方式发展的计算机技术所带来的“双刃剑”影响,因而成立了一个“伦理委员会”,该委员会的宗旨就是确保人工智能技术不被滥用。

  2016年,在纽约大学召开的以“人工智能的伦理问题”为题的学术会议上,机器智能研究所的EliezerYudkowsky认为,人工智能如果有一天真的发起疯来,它并不会像终结者,而会像米老鼠电影《魔法师的弟子》中的那个被米奇赋予生命的扫帚。也就是说,机器得到人类的指令后会对人类不闻不问,专注于完成事件的效率。但现实生活中并没有电影里最后出现的魔法师来阻止这场乱子。今年年初,麻省理工学院媒体实验室(MITMediaLab)和哈佛大学伯克曼克莱恩互联网及社会研究中心(BerkmanKleinCenter)共同成立“人工智能伦理和监管基金”管理机构。据悉,该基金将用于解决人工智能所带来的人文及道德问题。

  “AI的飞速发展带来了很多严峻的挑战。”麻省理工学院媒体实验室主任伊藤穰一对媒体称,“人工智能给社会以及人类带来了不可忽视的影响,机器变得越来越智能,以至于有时候我们会担心它们是否会脱离我们的控制。”

  “人机伦理问题就是人类与人工智能如何相处的问题。”冯象说,在系统上重新设计我们的经济、文化、社会和法律法规,让人工智能更好地服务社会而不是终结社会,人类与人工智能或许可能和平共处。

  人工智能使用需有所限制

  人工智能的风险与核武器的风险不同,后者一旦被使用就是人类的灾难。冯象主张将人工智能与核武器区别认识:“人工智能做出来就是为了让普通百姓日常使用的,并不是为了某种将来的需要,我们没有办法事后制定规则来规范某种智能的运用。”

  无人驾驶的技术现已成熟。无人驾驶可以降低成本,且大规模铺开使用,在这种情况下,冯象认为应该法律先行:“法律得事先做好,不能先把技术应用起来再来看法律该怎么办,有时候会来不及。因为它的事故风险系数太高,责任认定方面非常复杂。”

  霍金曾在英国《独立报》撰文,警告说科学家如果轻视人工智能的潜在危机,会招致人类自身灭亡。他认为随着技术的发展,机器人能够变得非常聪明,以至于这些机器人可以自主决定是否要消灭人类,“人工智能的短期影响取决于由谁来控制它,而长期影响则取决于它是否能够被控制。”人工智能是否存在毁灭人类的潜在威胁众说纷纭,不过限制人工智能的发展却已经成为一些有识之士的共识。“人工智能的风险不亚于核武器和生化武器,所以需要限制。”冯象说,“我们无法想象把人工智能放到一个私人企业,就像无法想象把核武器外包给私人企业一样,太危险了。”

  冯象还表示,政府应该担负起人工智能的管理责任。但除了政府之外,还有许多或许行之有效的方式能起到限制作用:参照《全面禁止核试验条约》和《不扩散核武器条约》这一类国际公约颁布限制人工智能发展的条约;联合国组织各方谈判;人工智能业界本身的自律;以及引进第三方监督机构。

  “人类从没有遇到过这样的情况:有一种东西的智能会超过人类。这是个全新的时代,人类都要往前走。”

  冯象:出生于50年代,清华大学法学院梅汝趝法学讲席教授,著名哲学家与哲学史家冯契之子。1968年上山下乡,远赴云南边疆,后获北大英美文学硕士,哈佛中古文学博士,耶鲁法律博士。曾在《南方周末》开有专栏,后结集为《宽宽信箱与出埃及记》。代表作有《政法笔记》、《木腿正义》和《创世纪:传说与译注》等。
2条评分金币+9
姜谷粉丝 金币 +2 - 2018-04-12
妞妞乐乐 金币 +7 辛苦了,感谢您无私奉献的精神! 2018-01-13
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
天人地
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个