您的全球组织在可信赖的AI中在哪里?

根据Cathy所说,许多风险源于AI系统的分散性。尽管从头开始构建它们可能是非常技术性的,但是许多预先开发的AI模型可以在几分钟之内从开源或技术公司处下载。例如,许多AI初创公司正在提供其工具的免费试用版,以快速支持模型构建和建立其客户群。此外,学习AI机器学习方法非常容易,可以绕过某些学科知识和正规教育计划中更结构化的方法。凯茜强调说,这些创新做法通常可以激发市场增长,但是,这些资源也可以规避那些为大型,昂贵的技术构建或许可而设计的公司中更强大的技术采购流程。

从Cathy的角度来看,第三方AI审计仍然是一种新兴的治理实践,并且非常罕见。但是,安永开始与许多内部审计小组合作,这些内部审计小组已经开始审计AI程序。他们通常首先着眼于更广泛的治理和对AI程序的控制,然后再转向特定的AI系统或项目。

AI模型或系统的外部审计意见或认证仍在开发中,因为还没有可用作技术性能和道德规范的评估标准的标准。

像IEEE,ISO这样的组织正在开发AI的标准,但是这些指导标准至少要到2021年才可用。此外,尽管会计机构正在开展工作,但仍需要开展认证计划本身的审计认证工作。作为加拿大注册会计师(CPA和美国注册会计师协会(AICPA,要考虑保证标准,评估标准和审核员证书,包括审核或认证AI的技术知识。

AI的道德发展对于确保可能影响个人数据最终结果的机器对机器决策的风险至关重要,在IEEE P7006™–个人数据人工智能(AI代理标准中进行了说明,该 标准 描述了何时需要的技术要素以道德的方式发展AI,并使人类参与所有决策。这将确保即使使用AI代理,个人数据的使用也保持透明。该标准尚未最终确定,但计划于2021年提供。

由于标准落后于治理,各种行业正以不同的速度成熟。从Cathy的全球经验来看,金融服务组织在其他领域处于领先地位。主要原因是他们已经遵守严格的模型风险管理和验证法规已有十多年了,监管机构已传达他们希望将相同的标准应用于机器学习和AI模型。但是,即使是金融服务组织,也要努力跟上整个组织内AI的增长,以适应以前从未使用过分析模型的领域,例如信贷,营销和分支机构优化。为了跟上步伐,他们需要自动执行模型验证过程和测试,并将其扩展到更广泛的受信任AI属性。

领先于其他部门的另一个部门是公共部门。包括加拿大在内的一些国家/地区的政府已经发布了标准,以规范人工智能在包括社会服务和医疗保健在内的公共服务中的使用,以确保以负责任和可信赖的方式使用人工智能。但是,这仍处于初期,许多部门仍在研究如何实施预期的治理和控制标准。

航空和汽车等其他受到高度管制的行业也是早期采用者,部分原因是受到法规要求的推动,并建立了消费者对其自动驾驶汽车和无人机的信任。

人工智能的主要问题之一是数据偏见的伦理风险。其中一个经常被讨论的案例是在1988年,当时英国种族平等委员会发现计算机软件程序对女性以及非欧洲名字的女性都有偏见,影响了英国医学院的成功录取率。该学校随后被判有罪,并涉嫌从事医学专业。快进近三十年,人工智能的增长速度以及持续缺乏数据集的治理控制和审计标准,仅在规模上增加了人工智能的风险。

Google报告说,在新闻文章上训练自然语言处理模型可能会表现出性别刻板印象。

凯茜(Cathy还强调了偏见的风险和误解,并提醒我,所有AI模型都存在内在偏见,需要进行价值判断才能做出预测或决策。她强调说,自然需要算法模型,或者任何由人或机器做出的具有一定程度偏差的决定。目的不是消除偏见,而是识别歧视性或不公平的偏见。Cathy强调,关键是关注AI模型的上下文,换句话说,了解AI模型正在努力实现的目标是什么?明确定义其目标结果是什么,以及该结果的潜在影响是什么?和谁?通过探索这些不同的角度并提出可靠的问题,领导者才能问出意外的风险是什么,

使用AI的最常报告和最常见的偏误之一是少数群体的风险。例如,在许多情况下,对信用贷款决策中少数群体的偏见可能源于许多不同的来源-记录有限,缺乏先前的银行记录,特定类别的系统性历史性就业不足或用于培训的借贷决策中的历史偏见。算法。

人口普查 数据显示 ,黑人和西班牙裔美国人比白人或亚裔美国人更容易被剥夺银行服务。抵押贷款中仍然存在许多系统和种族差异,由于数据偏差AI算法,贷款申请被拒绝。华尔街的一位领导人凯西·奥尼尔(Cathy O’Neil是一位受过数学训练的数学家,曾在加州大学伯克利分校,哈佛大学和麻省理工学院学习和工作,并辞去了华尔街的工作以写一本关于算法危险的书。

但是偏见会出现在任何数据集中,而不仅仅是涉及人类的数据集中。安永全球AI领导者Cathy Cobey分享了她与一家电信公司的对话故事,该公司使用AI优化其光缆网络。她建议她的客户说,在这种情况下,少数群体将是农村客户,他们需要避免针对城市/高密度地区优化网络,以免损害农村客户。

强有力的治理实践必须考虑所有方向,特别是相反或相反的问题。很少有领导者有时间从各个角度探讨风险,而且往往在投入足够的安全防护之前陷入困境。现有许多控件都可以利用,但AI的独特特性要求采用新的治理和控件,而其他控件则需要修改。

凯茜强调指出,董事会和首席执行官需要确保模型中使用明确定义的决策标准,并就特定的AI流程或决策中哪些意料之外,非法或不公平偏见的例子进行对话,以及如何它体现在系统结果中吗?

一个常见的例子是信息更有限的记录。如果您没有关于要优先处理的功能的特定数据记录的信息,则该模型将不会在决策框架中获取其需要操作的信息,因此可能导致不公平的决策。

最终,设计和测试AI系统的技术人员与了解AI成果的业务环境并将与AI系统一起运行的商业SME之间需要紧密合作。他们需要协同工作,以了解偏见和公平的技术和业务环境。他们还需要考虑被识别为有偏差的记录(例如异常值要遵循的替代或例外例程。

安永是拥有偏见和公平的全球领先公司之一,作为纳入其可信AI框架的五个信任属性之一。无论是公共组织还是私人组织,这都是任何AI指导文件中最普遍的原则。

为了使AI治理朝正确的方向发展,具有AI知识的董事会组成将是关键。扩大董事会技术知识的趋势正在增长,具有网络安全,云,ERP系统和数字专业知识的专家更为普遍。但是,当我和Cathy汇集我们的全球网络时,我们都同意,我们尚未看到AI专家加入董事会,并具备帮助推进AI风险实践的相关技能。

当前,董事们正在以不同的速度了解AI,并且新兴技术风险已开始添加为风险,这些风险由风险和内部审计团队监控并报告给董事会风险委员会。一些组织还增加了基于道德的高级管理人员角色和道德咨询委员会,但作为管理人员而不是董事会成员。这些进步中的大多数都在技术领域取得了进展,而在其他领域则取得了很大的进步。

国际公司治理网络一直在提倡对董事进行AI培训并扩大其董事会治理实践的要求。

下面提供了十个董事会治理问题的列表,这些问题可以帮助提高AI的领导力。这些问题是加强AI治理实践的良好起点。

1.董事会是否了解公司内部使用的AI用例,结果如何?

2.是否存在风险和控制框架以及库存管理流程来衡量和管理任何AI风险,董事会是否已审查了此运营流程?

3.哪些流程使用AI监督运营,以确保结果合适和/或指示公司风险?

4.是否曾经有过AI结果不正确的情况,例如数据偏倚?如何将这些风险传达给利益相关者并加以解决?

5.公司如何确保对AI知识产权资产的有效保护?

6.从外部供应商那里购买了什么数据,公司是否在确保数据的完整性以及是否适合用例?

7.如何确保整个组织的数据隐私,以及数据监督报告结构如何与高级管理层和董事会沟通?

8.提供了哪些培训来提升公司员工的技能,以使其能够协助公司进行AI之旅?董事会和管理层计划如何填补人工智能的知识空白或工作影响?

9.董事会在董事会上是否具有AI /技术/创新专业知识,他们的选择流程是什么?

10.董事会是否有明确的AI基准,以学习作为AI董事会治理中的榜样的公司,尤其是有关机器学习运营和AI库存管理实践的公司?

Google拥有最完善的负责任AI道德原则之一,这是一个很好的起点,因为在道德上有明确的立场是使组织能够以诚信和负责任的态度领导的关键。

显然,我们有许多工作要做,以通过有效的实践和控制来推进董事会治理,以确保人与机器之间信任的AI协调。

笔记:

受访者简介: Cathy是加拿大多伦多的技术风险合作伙伴,并且是安永全球可信赖的AI领导者。她担任该职位的负责人,负责安永的Trusted AI方法和工具的开发,并协助客户在其AI系统中建立信任。这不仅涉及其AI系统的技术设计和功能,还涉及考虑其运行的更广泛的治理和控制环境。

相关文章

联系我们

联系我们

029-88444144      

在线咨询: QQ交谈

邮箱: cnnwn@126.com

工作时间:周一至周五,9:00-17:30,节假日休息

返回顶部