企业面临着利用AI创造价值的巨大压力。虽然这意味着需要寻找创新方式来应用该技术,但CIO和其他企业IT领导者也需要考虑其道德使用和风险管理。如果忽视这一环节,将面临严重后果。
数字化转型公司Sutherland的CIO兼首席数字官Doug Gilbert表示:"你将遇到可信度问题、公平性问题,坦率地说,这会让你面临相当严重的损失。"
随着AI法规的不断推出以及AI使用不当后果的显现,企业面临罚款和诉讼的可能性。降低风险意味着现在就要定义道德AI,将其整合到企业级框架中,并确保其得到统一应用和维护。
**定义道德AI**
说道德AI意味着"行善"或"不造成伤害"很容易,但这在实践中实际意味着什么?首先要认识到AI道德没有统一定义。
全球企业软件公司IFS的CIO Helena Nimmo说:"这取决于你的价值观、成长环境、所处环境以及你的个人特质。试图建立一个通用框架将是一个挑战,需要大量协商。"
但这种协商可以基于被广泛认为是AI道德核心的基本原则:公平性、透明度、问责制和隐私保护。
"当你考虑道德框架应该是什么样子时,无论是两页还是100页,我认为它必须包含这四个关键词,"她说。
不同行业的领导者在考虑具体AI使用案例时可能会关注不同问题。例如,医疗机构的CIO可能特别关注AI的隐私方面,组织是否充分保护了敏感的患者数据?而制造公司的CIO可能更多考虑物理安全,AI的应用是否确保了生产线的正常运转和工人的安全?
**构建框架**
AI道德可能令人感到非常复杂,但CIO无需从零开始构建企业框架。他们可以借鉴众多现有框架,并从适用于其运营所在司法管辖区的法规中获得启示。
Nimmo说:"公司正在自己构建框架,他们在挑选和寻找最佳实践。"
道德可以为企业整体AI治理方法奠定基础。
Gilbert表示:"如果你想在公司和政策中拥有良好的安全性,你就会在制定政策时考虑安全因素并践行它。AI道德已经变成了完全相同的方式;它是一个基本支柱,然后这个基本支柱构成了你的AI。"
像安全政策一样,AI政策不能采用"设定后就放任不管"的方法。它们需要不断修订和更新,以跟上技术的快速发展。
CIO必须确保持续审计。用于训练模型的数据来自哪里?结果是否无偏见?AI模型是如何得出其决策的?这些决策是否造成了伤害?企业在使用AI时是否维护了数据隐私?领导者是否确保每个人(包括他们自己)都对组织的道德AI框架负责?
随着AI更深入地融入企业,CIO将发现自己需要解决新问题。Nimmo指出AI的人性化是一个新兴考虑因素。企业越来越多地采用聊天机器人和虚拟智能体,并像对待员工一样对待它们。
"如果你注意到你的一个虚拟同事一直在犯错怎么办?"Nimmo问道。"你向谁投诉?这是人力资源问题吗?这是IT问题吗?你如何处理这个问题?"
CIO需要更新企业框架来解决这些问题。
**获得企业支持**
无论是与安全、文化、AI还是这三者都相关的企业级倡议,都始于高管层。
可能是CIO率先定义和应用道德AI,但桌上的每个人都需要参与对话。企业领导层需要就平衡交付结果的商业压力与AI不当使用风险达成一致。
"我们都有责任确保我们在思考这些重大问题,"Nimmo说。"我们的薪水就是用来思考这些复杂重大挑战的。"
领导者需要进行利益相关者管理,确保从高级领导者到新员工的每个人都了解如何在组织商定的框架内使用AI。实际上,Nimmo认为年轻群体在AI道德对话中特别重要。
"当我们处理像AI这样真正改变世界的新技术时,要引入年轻的声音。倾听他们的意见,因为他们将是获得收益或不获得收益的人,"她说。
Q&A
Q1:什么是道德AI?它包含哪些核心原则?
A:道德AI没有统一定义,但可以基于四个被广泛认可的核心原则:公平性、透明度、问责制和隐私保护。不同行业的领导者会根据具体使用场景关注不同方面,如医疗机构更关注隐私保护,制造公司更关注物理安全。
Q2:企业如何构建AI道德框架?
A:CIO无需从零开始构建框架,可以借鉴现有框架和相关法规。道德可以为企业整体AI治理奠定基础,像安全政策一样成为基本支柱。框架需要持续更新以跟上技术发展,并进行持续审计确保合规。
Q3:如何确保AI道德框架在企业中得到有效执行?
A:需要从高管层开始的企业级支持,所有C级高管都要参与对话。领导者需要进行利益相关者管理,确保从高级领导到新员工都了解如何在框架内使用AI。特别要重视年轻员工的声音,因为他们将是AI技术的主要受益者或受影响者。