美国发布《人工智能权利法案》蓝图文件

发布时间:2022-10-21

美国政府科技政策办公室近日发布了一份《人工智能权利法案》蓝图,以帮助指导人工智能和其他自动化系统的设计、开发和部署,从而保护美国公众的权利。拜登总统站在特殊利益集团的立场上,长期以来一直表示,现在是时候让大型科技公司对其造成的危害负责,并确保美国公众在日益自动化的世界中得到保护。该框架建立在美国政府的工作基础之上,即追究大技术的责任,保护美国人的公民权利,确保技术为美国人民服务。

自动化技术越来越多地被用于做出影响人们权利、机会和获取从雇佣和住房到医疗、教育和金融服务的一切方面的日常决策。虽然这些技术可以推动伟大的创新,如实现早期癌症检测或帮助农民更有效地种植粮食,但研究表明,人工智能如何在决策过程中不平等地展示机会或嵌入偏见和歧视。因此,自动化系统可以复制或加深社会中已经存在的针对普通人的不平等,强调需要提高透明度、问责制和隐私。

《大赦国际权利法案蓝图》提出了美国每个人都应享有的五项核心保护措施,以应对这些紧迫挑战:

l  安全有效的系统:应保护您免受不安全或无效系统的影响。

l  算法歧视保护:每个公民不应该面临算法歧视,系统应该以公平的方式使用和设计。

l  数据隐私:应通过内置保护措施保护公民不受滥用数据行为的影响,并且公民应该有机构来管理有关其数据的使用方式。

l  注意和说明:公民应该知道正在使用自动化系统,并了解它如何以及为什么会对影响他的结果产生影响。

l  备选方案:在适当的情况下,公民应该能够选择退出,并与能够快速考虑和解决你遇到的问题的人接触。

通过与美国公众、利益相关者和美国政府机构广泛协商制定的蓝图还包括政府、公司、社区和其他人可以采取的具体步骤,以便将这些关键保护措施构建到政策、实践或技术设计中,以确保自动化系统为美国人民服务。

“自动化技术正在推动显著的创新,并形成影响人们权利、机会和访问的重要决策。AI权利法案的蓝图适用于每天与这些强大技术互动的每一个人,以及生活因无法解释的算法而改变的每一个人,”科学技术政策副办公室说科学与社会主任阿隆德拉·纳尔逊博士。“《AI权利法案蓝图》中规定的实践不仅是理想的;它们是可以实现的,而且对于建立一个为我们所有人服务的技术和社会来说是迫切需要的。”

白宫国内政策顾问苏珊·赖斯(Susan Rice)表示:“我们今天宣布的AI权利法案蓝图和联邦行动兑现了总统第一天的承诺,即支持为美国人民促进公平和经济机会的政策。”。“综合起来,这些行动将有助于解决算法歧视问题,并解决自动化系统对服务不足社区的危害。”

自动化系统中的偏见横跨各个行业,可能威胁美国公众的权利。近年来,这些工具被用于监督工作场所的工人,在某些情况下限制了他们的组织能力;监督并诬告学生作弊;错误地拒绝向需要医疗保健的老年美国人提供福利;逮捕那些没有犯下罪行的人。调查一再发现,大型技术平台、公司和开发商正在部署歧视性算法,危害公众。

美国政府还宣布了整个联邦政府采取的行动,通过保护和支持美国人民、工人和雇主、教育工作者和学生、患者和医疗服务提供者、退伍军人、租户和房主、技术专家、家庭和社区来推进蓝图:

1)保护工人:

为了保护工人的权利,劳工部发布了“AI权利法案的蓝图对工人意味着什么”,并正在加紧执行必要的监督报告,以保护工人组织。

为了保护残疾工人,平等就业机会委员会(EEOC)和司法部于2022年5月发布了关于《美国残疾人法案》(ADA)和就业算法的反歧视技术援助和指导,以及由劳工部资助的就业和无障碍技术伙伴关系,发布了AI与残疾包容工具包和公平AI行动手册。

为了促进平等就业机会,平等就业机会委员会和劳工部开展了多年合作,以重新定义雇佣和招聘做法,包括使用自动化系统。

2)保护消费者:

为了保护消费者,联邦贸易委员会(FTC)正在探索限制商业监视、算法歧视以及可能违反《联邦贸易委员会法案》第5条的松散数据安全实践的规则。

为了保护金融系统中的消费者,消费者金融保护局(CFPB)确认,联邦反歧视法要求债权人在信贷申请被拒绝或采取其他不利行动时向消费者提供具体和准确的解释,即使债权人使用复杂算法依赖黑箱信贷模型。CFPB也在打击金融部门的算法歧视,并聘请技术专家全面负责这项监督工作。

3)保护学生和支持教育工作者:

为了指导学校使用人工智能,教育部将在2023年初发布关于使用人工智能进行教学和学习的建议。这些建议将:为教育工作者、家长和照护者、学生和社区提供工具,以利用人工智能推进通用学习设计;定义教育中使用的人工智能模型的安全性、公平性和有效性规范;并介绍建立在现有教育数据隐私法规基础上的指南和护栏,以及介绍新政策,以支持学校在使用人工智能时保护学生。

4)保护患者和协助医疗服务提供者:

为了保护患者在医疗保健中免受歧视,卫生与公共服务部发布了一项拟议规则,其中包括一项条款,禁止受保健康计划和活动在临床决策中使用算法进行歧视,到2022年底,将发布一份医疗保健算法和种族和民族差异的循证检验报告,供公众评论。

为了促进健康公平,到2022年底,卫生与公共服务部将发布一个通过设计促进健康公平的愿景,其中包括减少医疗算法中算法歧视的方法。

为了根除医疗保健规定中的偏见,卫生与公共服务部通过多个规则制定过程要求提供信息,说明医疗保险政策如何鼓励软件开发人员预防和减轻算法和预测建模中的偏见。

为了保护退伍军人并支持他们的医疗保健,退伍军人事务部(VA)建立了一个基于原则的退伍军人数据获取和使用道德框架,并启动了AI@VA社区和网络试点项目,为退伍军人提供医疗保健中使用的任何人工智能系统的信息,并确保在人体受试者研究期间管理人工智能风险。

5)确保公平获得住房:

为了保护租户,住房和城市发展部将发布指南,解决租户筛选算法的使用可能违反《公平住房法》的问题。

为了保护购房者和业主,监管抵押贷款融资的联邦机构将纳入一项非歧视性质量控制标准,作为即将出台的一项拟议规则的一部分,该规则旨在建立自动估价模型的质量控制标准。这样,这些模型就不会依赖可能重复过去住房歧视的有偏见的数据。

6)以身作则,推进民主价值观:

为了保持美国在全球的领导地位,美国国际开发署(USAID)启动了一项AI行动计划,承诺USAID将风险缓解纳入AI规划,并制定全球负责任的AI议程;美国国际开发署还通过推进数字民主倡议,支持在全世界开发、治理和使用负责任、尊重权利的技术。

为了指导联邦采购,政府将跨机构合作,制定新的政策和指南,以使用和购买人工智能产品和服务,这些政策和指南基于有效和有前景的实践,以防止和解决由以下因素导致的偏见和算法歧视:

为了提高联邦政府的透明度和信任度,管理和预算办公室、白宫科学技术政策办公室和联邦首席信息官委员会已在整个政府范围内协调发布非机密和非敏感政府人工智能用例清单。各机构目前正在实施其制定和批准的计划,以确保其人工智能系统符合有关公民权利、公民自由和隐私的法律和政策。

为了以身作则地遵循AI道德原则,能源部(DOE)将于2022年秋季发布《促进负责任和值得信赖的AI的原则和指南》,DOE的AI风险管理行动手册建议采取缓解措施,积极管理AI风险,如算法歧视。国防部根据其人工智能道德原则以及相关的负责任人工智能战略和实施途径运作,以协助美国国防企业坚持这些原则。同样,美国情报界在其人工智能道德原则和相关人工智能道德框架下运作。

7)指导和支持技术专家和企业家:

为了使技术人员能够促进可信赖的人工智能,商务部国家标准与技术研究所(NIST)正在开发一个风险管理框架,以帮助技术人员将公平、安全和隐私考虑纳入人工智能产品、服务和系统的设计、开发、使用和评估中。AI风险管理框架的在线行动手册也将为用户提供操作这些考虑的建议措施。

为了塑造值得信赖的人工智能的长期未来,每年投资超过7亿美元,国家科学基金会继续支持人工智能研究,包括对人工智能系统的公平、安全、安全和可信度的研究。

美国法律和政策已经提供了一系列保护措施,可以应用于这些技术及其造成的危害。如果法律或政策尚未提供指导,则应使用蓝图为决策提供信息,以填补这些空白。

来源:战略前沿技术