切换到宽版
  • 546阅读
  • 0回复

[智能应用]人工智能自动化决策偏见不可避免,该如何应对 [复制链接]

上一主题 下一主题
离线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106166
金币
2179
道行
19523
原创
29307
奖券
17275
斑龄
190
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 20019(小时)
注册时间: 2007-11-29
最后登录: 2024-11-23
只看楼主 倒序阅读 使用道具 楼主  发表于: 2021-09-15
— 本帖被 兵马大元帅 执行加亮操作(2024-02-21) —
           作为第四次科技革命的开创性技术,人工智能对人类社会的发展与转型产生了深远影响。其中,以算法和大数据驱动的人工智能自动化决策正不断渗透至政治、经济、社会等治理领域的各层面,并逐步取代许多长期以来由人类决策或组织执行的工作。如今,自动化决策不仅在私人部门和商业活动中被广泛使用,还深度参与到公共部门的政策制定之中。人们每天浏览的资讯、看到的推送广告、申请到的贷款额度、获取的医疗健康建议等等,很大一部分都是电脑程序通过特定算法对收集到的个人行为习惯、兴趣爱好以及经济、健康、信用状况等信息数据进行自动化分析和评估,并进行判断与决策的结果。

鉴于人工智能在纯技术层面是价值中立的,基于算法的自动化决策具有相对客观、公正、高效的优势。然而,在实际应用上,历史数据存在偏差、设计者个人偏见嵌入系统,以及技术本身不完善等因素又会导致人工智能系统不时做出错误或歧视性的自动决策。除了担心“大数据杀熟”等消费者权益被侵害的问题,人们更为忧虑的是透明度缺乏、监管不足的自动化决策可能令社会陷入“算法暴政”和“数据霸权”的泥沼之中。构筑健全的人工智能伦理体系,引导算法向善,防范滥用之恶,成为当前亟需解决的重大治理问题。

为解析人工智能自动决策中偏见和错误的成因,消弭治理鸿沟,今年7月,美国海军研究生院计算机系助理教授约书华·A·克罗尔(Joshua A. Kroll)在美国布鲁金斯学会官网发表了研究 文章《为何目前的人工智能还只是自动化应用而已?》( Why AI is just automation?),探讨了自动化决策过程中准确性、公平性和透明度不足的问题,并提出了社会与技术深度协同的治理思路。

约书华·A·克罗尔(Joshua A. Kroll)指出,算法偏见造成决策谬误和歧视性结果的主要原因可以从技术和实务两个层面进行分析。首先,从技术层面来看,现有的人工智能治理机制大多还不具备应对自动化决策系统的规模、速度和复杂性的足够能力。当前机器学习的主流技术普遍呈现“黑箱”特征,个人用户很难充分了解数据训练的过程和自动决策的机理,难免令人们对算法的公正性产生怀疑。在医疗、金融、司法等重要领域,“黑箱”容易使自主决策的算法欠缺透明度和可解释性,进而威胁到人们的基本权利,但现实中法律救济和纠正错误的有效途径又不足。同时,由于算法本身就是规则制定者和系统设计者个人意志与偏好的投射,且随着算法对数据的不断学习,又会在人工智能系统中逐渐固化这些选择倾向,从而导致决策偏差的形成。

其次,从实务层面来看,大多数用于公共事务管理的自动化决策系统,其运行规则实际是由官僚行政机构负责制定。然而,官僚行政机构在忙于拥抱新技术、部署新系统时,常常会疏忽新的决策产生方式对所有利益相关者的影响,并且对如何将新决策工具有效融合到现实的行政管理功能之中考虑不足。这就容易导致唯技术论,简单地将“应用人工智能”或“以数据驱动决策”设定为目标,却不重视解决实际问题。一但出现自动化决策错误,则又会归咎于系统遵循的规则本身,回避当中的人为因素。由于人为设定的规则不可能完美适用于每一种情况,服务于公共事业的自动决策系统除了要重视通过预设合理的规则来明确处理具体场景的标准,大幅提升决策的规模和速度之外,还必须认真探索如何实现规则的有效性和规则应用的透明度;规则对优势群体和弱势群体影响的相对公平性;规则遭遇例外情况时的协调办法;当规则出现整体性失败时的监督和问责机制等目标,以避免人工智能系统陷入机械依照既定规则行事,忽略识别新问题并及时纠错的治理困境。

当前,改善人工智能自动化决策治理模式的需求已迫在眉睫。约书华·A·克罗尔(Joshua A. Kroll)因此提出了三个治理的关键点:首先,要以解决具体问题为导向,重视自动化决策结果的实效,而不是局限于制定技术解决方案本身,将制定决策的责任简单推给技术专家。只有当系统应用是由问题而不是技术解决方案驱动时,才最有可能取得成功。其次,将事前制定合理、公平的规则和建立事后监管与救济机制同时并重,使治理体系的功能更加完善、透明。自动决策发生错误后必须有能够升级处理的渠道和酌情处置的补救途径。相关系统记录要完整保存,以备审计和监管。第三,为了推动人工智能自动化决策系统与应用的可持续发展,尤其需要大力创建包括政府、企业、社会、用户等在内的多方共同开发、协同共治的良性生态,以形成应对人工智能近期、远期问题的建设性共识,弥合灵活变动的实际需求和僵化遵循规则的技术工具之间的断层。在此过程中,人类应作为有远见的参与者来积极介入系统的运行和治理,而不仅仅是技术的被动接受者。唯有如此,才有可能超越部门职能和学科藩篱,突破现有范式,重塑整个系统,而这还有赖于长期的能力建设和人才培养。

约书华·A·克罗尔(Joshua A. Kroll)强调,在大数据时代,人工智能自动化决策过程中出现算法偏见的情况几乎是无可避免的。尚未解决这一问题的人工智能系统暂时还只能算是一种自动化应用而已。但是,否定或禁用该项技术并非明智之举,关键在于如何矫正和规制。应当看到,由规则驱动的自动化系统的优势在于能够以可预测的方式将具体的事实置入算法模型,进而转化为特定的结论。输入系统的事实模式、决策规则与系统计算输出的结果间的关系和过程可以被完整记录,供日后审查和监管。这为将来实现完善的监督与透明的执行,消除偏见和歧视提供了可能性。当然,成就这一愿景目前最亟需的是社会各界力量深度协同,构建向善的社会技术治理机制,而不是将视野局限于令机器学习各种规则并自动做出决策的技术过程之上。
山庄提示: 道行不够,道券不够?---☆点此充值☆