导航菜单

我们仍在追赶人工智能这是一个危险的游戏

导读 从告知地方议会的福利决定,到在足球比赛前扫描支持者的面部以加强安全:算法已经在公共部门发现了许多大大小小的应用。 但英国公共生活标准委员会(committee on standards in pu
2020-03-11 16:05:15

从告知地方议会的福利决定,到在足球比赛前扫描支持者的面部以加强安全:算法已经在公共部门发现了许多大大小小的应用。

但英国公共生活标准委员会(committee on standards in public life)现在报告称,在提供某些服务方面,人工智能的使用正迅速超过监管,而且在许多情况下,未能妥善管理这项技术可能会妨碍公民权利的行使。

该委员会在今天发表的一份报告中指出:“缺陷是明显的。”“这项研究发现,政府在开放性方面存在缺陷。”实际上,该组织强调的第一个问题是,没有人确切知道政府目前在哪里使用人工智能。学者、民间社会团体和政府官员都表示,他们无法查明哪些政府部门正在使用这种技术,以及如何使用。

报告警告称,公共部门人工智能的监管和治理仍在进行中,并表示“迫切需要”切实的指导和可执行的监管。

军情五处前局长、现任该委员会主席和研究负责人的埃文斯勋爵告诉ZDNet:“当我开始这个项目时,我要求我的研究人员找出在公共部门使用算法的地方,但他们做不到。记者试图找出答案,但他们很少能做到。政府也没有公布任何有关人工智能使用范围的审计结果。”

“问题是,如果你甚至不知道有人在使用人工智能,你就无法行使自己的权利。因此,首先要解决的是开放。”

如果人工智能的使用没有任何风险,这种缺乏透明度的情况就可以被接受。例如,当该技术仅仅用于提高行政效率时,只需要一份概述系统工作方式的声明即可。

但在重大决策的情况下,比如分配福利或分析可疑罪犯,事情就变得更加复杂了。这是因为算法有一个众所周知的缺陷:数据偏差。俗话说,“垃圾进,垃圾出”;换句话说,一个包含种族、性别或意识形态偏见的人工智能系统将做出不公平、歧视性的决定。

政府正越来越多地考虑将人工智能应用到警务、教育、社会护理和卫生等领域的高影响力决策过程中。埃文斯说:“如果我们在可能影响公民权利的地方使用这些系统,那么我们应该绝对清楚其中的风险。”“我们需要管理风险;但我对目前的情况没有信心。”

过去几年,在关键的公共部门服务中试用和测试的算法例子比比皆是,由于它们所犯的偏见,它们经常面临强烈议。例如,英国教育标准办公室(Ofsted)在2017年开始使用机器学习来评估学校,并对检查工作进行优先排序。教师们没有浪费时间来议这个工具,他们认为这个算法是不公平的,缺乏透明度,并且会加剧教育系统中已经存在的偏见。

为了研究的目的,埃文斯采访了一些公共部门的工作人员,包括医生,据他说,这些人“非常可靠”。他说,医疗专业人员习惯于将新技术整合到他们的工作中,他们有许多协议来确保人工智能的安全部署;但在其他一些领域,情况并非如此。

埃文斯说:“在医疗机构内部,有适当的检测和审查,以准确了解风险是什么,并确保妥善管理。”“但是,以警察为例,在引进新技术时,没有相同的智力训练。这是人们表示关切的领域。”

报告指出,在警察队伍中,没有明确的评估、采购或部署面部识别等技术的程序。事实上,通常是由个别的警察部门来制定他们自己的道德框架,到目前为止,这些道德框架产生了“好坏参半的结果”。

例如,早在2017年,达勒姆的英国警察就开始使用一种算法来帮助警察做出拘留决定。该系统被称为危害评估风险工具(HART),在5年的时间里,该系统对该市约10.4万名被捕者的信息进行了培训,旨在确定嫌疑人的再罪率是低、中、高还是高。

哈特使用的数据包括嫌疑人的年龄、性别和邮编;但由于地理信息有反映种族社区的潜力,这项举措立即招致了隐私保护活动人士的批评。《老大哥观察》(Big Brother Watch)甚至谴责该技术的“粗糙和无礼的外形”。

该委员会的报告强调,与医疗领域的人工智能相比,警方处理算法的方式“更能代表”更广泛的公共部门。政府的缺点也不是没有后果的。审查发现,超过半数的公众认为,提高透明度将使他们更适应在公共部门使用人工智能。

埃文斯说:“我们需要有前瞻性的视野,有明确的法律依据,以及知道如果出现问题,如何纠正和上诉的方法。”

如果政府是为了让公民放心,他们并非对算法所告知的决策无能为力,那么上诉的权利很可能会成为一个主要的焦点。例如,《通用数据保护条例》(General Data Protection Regulation,简称GDPR)已经概述了个人反对自动决策的权利。欧洲法律规定,组织应该为公民提供简单的方式,让他们请求人工干预或挑战自动决策。

然而,这些规则在现实生活中如何应用还有待观察。例如,今年早些时候,有报道称英国内政部(Home Office)使用了一种算法工具来处理签证申请。由于该技术存在歧视某些国家的风险,活动团体要求对该工具的内部工作方式进行更详细的说明,但英国内政部拒绝提供有关不同国家在该算法数据集中被标记方式的细节。

因此,算法黑箱并不罕见。如果透明度的要求遭到了政府的反对,那么上诉请求将如何处理就更不清楚了。再加上由人工智能系统通知的决策由谁负责的问题,很明显,为什么人工智能的使用仍然存在争议,为什么政府难以跟上。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢:

最新文章: