现在,每家公司都比以往任何时候都更像是一家数据公司。 到 2025 年,世界各地的个人和公司每天将产生约 463 艾字节的数据,而十年前还不到 3 艾字节。
考虑到这一点,大多数企业已经开始解决数据管理的运营方面的问题,例如,确定如何构建和维护数据湖或如何将数据科学家和其他技术专家整合到现有团队中。 很少有公司系统地考虑并开始解决数据管理的道德问题,这可能会产生广泛的影响和责任。 例如,如果算法使用有偏见的数据集进行训练,或者数据集遭到破坏、未经同意出售或以其他方式处理不当,公司可能会蒙受巨大的声誉和财务成本。 董事会成员甚至可能承担个人责任。
那么公司应该如何开始考虑道德数据管理呢? 他们可以采取哪些措施来确保在整个价值链(从收集到分析再到洞察)中正确使用消费者、患者、人力资源、设施和其他形式的数据?
我们通过与大约十几位全球商业领袖和数据伦理专家的交谈来开始探索这些问题。 通过这些对话,我们了解了领导者和组织可能陷入的一些常见数据管理陷阱,尽管他们的意图是最好的。 这些陷阱包括认为数据道德不适用于您的组织、法律和合规性涵盖了数据道德以及数据科学家拥有所有答案,更不用说不惜一切代价追求短期投资回报率并只关注数据了 而不是他们的来源。
在本文中,我们探讨了这些陷阱,并提出了一些避免它们的潜在方法,例如采用新的数据管理标准、重新思考治理模型以及跨学科和组织的协作。 这份潜在挑战和补救措施的清单并不详尽; 我们的研究基础相对较小,除了我们在这里讨论的内容之外,领导者在数据的道德使用方面还可能面临许多其他障碍。 但我们的研究清楚地表明,数据道德需要包括首席执行官在内的所有最高管理层成员更多、持续的关注。
企业领导者的潜在挑战
关于数据伦理的文献有很多动态。 正如公司收集、分析和访问数据的方法不断发展一样,该术语本身的定义也不断发展。 在本文中,我们将数据道德定义为与数据相关的实践,旨在维护用户、患者、消费者、客户、员工和合作伙伴的信任。 我们采访过的大多数商业领袖都广泛同意这个定义,但有些人根据自己部门或组织的需求对其进行了定制(请参阅附文,“什么是数据道德?”)。 我们与这些商业领袖的对话还揭示了组织中可能发生的数据道德方面的意外失误。 其中包括以下内容:
认为数据道德不适用于您的组织
尽管每当公司使用数据(包括人工智能和机器学习应用程序)时,隐私和道德考虑都是至关重要的,但对于一些高管来说,它们往往不是首要考虑的问题。 根据我们的经验,企业领导者并不是故意排斥这些想法,而是故意将这些想法抛之脑后。 对他们来说,通常更容易关注他们可以“看到”的东西——与数据管理相关的工具、技术和战略目标——而不是看似看不见的数据管理可能出错的方式。
例如,在 2021 年麦肯锡关于人工智能状况的全球调查中,约 1,000 名受访者中只有 27% 表示,他们的数据专业人员在数据摄取过程中积极检查数据是否有偏差或有偏见。 只有 17% 的受访者表示,他们的公司有一个专门的数据治理委员会,其中包括风险和法律专业人士。 在同一项调查中,只有 30% 的受访者表示,他们的公司将公平和公平视为相关的人工智能风险。 当然,与人工智能相关的数据风险只是更广泛的数据道德问题的一部分,但这些数字令人震惊。
孤岛思维:法律、合规或数据科学家都涵盖数据道德
公司可能认为,只要雇用一些数据科学家,他们就履行了数据管理义务。 事实是,数据道德是每个人的领域,而不仅仅是数据科学家或法律和合规团队的领域。 在不同时期,整个组织的员工(从一线到最高管理层)需要提出、回应和思考与数据相关的各种道德问题。 例如,业务部门领导者需要与法律和营销团队一起审查其数据策略,以确保其战略和商业目标符合客户的期望以及数据使用的监管和法律要求。
当高管们处理使用问题时,他们必须承认,尽管监管要求和道德义务是相关的,但遵守数据道德远远超出了合法性的问题。 事实上,公司通常必须在相关法律通过之前做出决定。 欧盟的《通用数据保护条例》(GDPR) 于 2018 年 5 月才生效,《加州消费者隐私法》于 2020 年 1 月才生效,联邦隐私法目前尚未在美国国会审议。 在这些以及其他法规和条例出台之前的几年,领导者必须为其组织使用数据制定条款,就像他们目前就未来几年将受到监管的事项做出决策一样。
法律可以向高管展示他们可以做什么。 但全面的数据道德框架可以指导高管是否应该追求某种商业策略,如果是,应该如何实施。 我们采访的一位高级管理人员明确指出了管理人员的数据管理任务:“这里的障碍不是监管。 这里的标准是为消费者设定一个期望,然后满足这个期望,并以一种对你的品牌有利的方式做到这一点。”
追求短期投资回报率
在经济波动、某些行业的激进创新以及其他颠覆性商业趋势的推动下,高管和其他员工可能会忍不住做出不道德的数据选择,例如,不恰当地共享机密信息,因为它有用,以追逐短期利润。 董事会越来越希望制定更多的消费者和商业数据使用标准,但短期财务压力仍然存在。 正如一位科技公司总裁所解释的那样:“收集尽可能多的数据并使用尽可能多的数据是很诱人的。 因为归根结底,我的董事会关心的是我是否实现了增长和 EBITDA。……如果我的首席营销官无法瞄准用户来创建有效的客户获取渠道,他可能会在某个时候被解雇——或者至少 他不会获得奖金。”
只看数据,不看来源
当管理人员只关注离散数据集的保真度和实用性而不考虑整个数据管道时,可能会出现道德失误。 数据从哪里来? 该供应商能否确保数据主体知情同意第三方使用? 市场数据是否包含重要的非公开信息? 这种尽职调查是关键:一家另类数据提供商因向贸易公司歪曲其数据的来源而被指控犯有证券欺诈罪。 在这种情况下,公司向数据供应商提供了有关其应用程序性能的机密信息,而数据供应商并没有按照承诺对数据进行聚合和匿名化。 最终,该供应商不得不与美国证券交易委员会达成和解。
一些重要的构建块
这些数据管理挑战很常见,而且绝不是唯一的挑战。 随着组织产生更多的数据,采用新的工具和技术来收集和分析数据,并找到应用数据见解的新方法,新的隐私和道德挑战和复杂性将不可避免地出现。 组织必须尝试构建容错数据管理程序的方法。 从我们的研究中得出的这七个与数据相关的原则可能会提供一个有用的起点。
法律可以向高管展示他们可以做什么。 但全面的数据道德框架可以指导高管是否应该追求某种商业策略,如果是,应该如何实施。 我们采访的一位高级管理人员明确指出了管理人员的数据管理任务:“这里的障碍不是监管。 这里的标准是为消费者设定一个期望,然后满足这个期望,并以一种对你的品牌有利的方式做到这一点。”
追求短期投资回报率
在经济波动、某些行业的激进创新以及其他颠覆性商业趋势的推动下,高管和其他员工可能会忍不住做出不道德的数据选择,例如,不恰当地共享机密信息,因为它有用,以追逐短期利润。 董事会越来越希望制定更多的消费者和商业数据使用标准,但短期财务压力仍然存在。 正如一位科技公司总裁所解释的那样:“收集尽可能多的数据并使用尽可能多的数据是很诱人的。 因为归根结底,我的董事会关心的是我是否实现了增长和 EBITDA。……如果我的首席营销官无法瞄准用户来创建有效的客户获取渠道,他可能会在某个时候被解雇——或者至少 他不会获得奖金。”
只看数据,不看来源
当管理人员只关注离散数据集的保真度和实用性而不考虑整个数据管道时,可能会出现道德失误。 数据从哪里来? 该供应商能否确保数据主体知情同意第三方使用? 市场数据是否包含重要的非公开信息? 这种尽职调查是关键:一家另类数据提供商因向贸易公司歪曲其数据的来源而被指控犯有证券欺诈罪。 在这种情况下,公司向数据供应商提供了有关其应用程序性能的机密信息,而数据供应商并没有按照承诺对数据进行聚合和匿名化。 最终,该供应商不得不与美国证券交易委员会达成和解。
一些重要的构建块
这些数据管理挑战很常见,而且绝不是唯一的挑战。 随着组织产生更多的数据,采用新的工具和技术来收集和分析数据,并找到应用数据见解的新方法,新的隐私和道德挑战和复杂性将不可避免地出现。 组织必须尝试构建容错数据管理程序的方法。 从我们的研究中得出的这七个与数据相关的原则可能会提供一个有用的起点。
建立一支以数据为中心的多元化团队
强大的数据道德计划不会突然实现。 大大小小的组织都需要关注道德问题的人; 它不能是一项副业活动。 工作应该分配给特定的团队或附加到特定的角色。 近年来,一些较大的科技和制药公司任命了首席道德官或首席信托官。 其他人则成立了跨学科团队(有时称为数据道德委员会)来定义和维护数据道德。 理想情况下,此类董事会应包括来自业务部门、营销和销售、合规和法律、审计、IT 和最高管理层等部门的代表。 这些委员会还应该有一系列的性别、种族、民族、阶级等:当具有不同背景和不同背景的人组成时,组织更有可能尽早发现问题(例如,在算法训练数据中)。 经验坐在桌子旁。
一家跨国金融服务公司开发了一种有效的数据道德审议和决策结构。 它有两个主要的数据道德团体。 重大决策由一组高级利益相关者做出,包括安全主管和其他高级技术主管、首席隐私官、咨询部门负责人、战略负责人以及品牌、通信和数字部门负责人 广告。 这些是最有可能使用数据的人。
治理是另一个小组的职责范围,该小组由首席隐私官担任主席,成员包括全球数据主管、高级风险主管和负责公司品牌的高管。 任何有关数据使用的新问题都会提交给该委员会,团队必须解释拟议的产品如何符合公司的数据使用原则。 正如一位公司高级管理人员所解释的那样,“这两个机构必须跨职能,这一点很重要,因为在这两种情况下,你都在努力确保拥有相当全面的视角。”
正如我们所指出的,合规团队和法律顾问不应该是唯一考虑公司数据道德的人,但他们在确保数据道德计划的成功方面确实可以发挥重要作用。 法律专家最适合就您的公司应如何应用现有和新兴法规提供建议。 但团队可能还希望聘请外部专家来应对特别困难的道德挑战。 例如,一家大型科技公司聘请了一位人工智能伦理方面的学术专家,帮助其弄清楚如何穿越灰色地带,例如某些类型的数据使用对环境的影响。 该专家是该小组的现任成员,但没有投票权,因为该团队“不想外包决策”。 但专家参加了每次会议,并领导团队进行会议前的工作。
让首席管理层中的拥护者参与进来
我们采访的一些召集过数据道德委员会的从业者和专家指出,让首席执行官和公司董事会了解决策和活动的重要性。 一位担任该组织数据道德小组主席的高级管理人员解释说,虽然该小组没有让首席执行官直接参与决策过程,但它向他提供了所有数据道德结论,“并确保他同意我们所采取的立场。” 所有这些从业者和专家都一致认为,在最高管理层中拥有一两名拥护者可以向组织其他部门表明数据道德的重要性,强化数据规则,并支持对数据相关举措的投资。
事实上,公司董事会和审计委员会可以提供所需的检查,以确保数据道德得到维护,无论激励措施如何冲突。 一家科技公司的总裁告诉我们,其董事会最近开始要求提供数据道德报告,作为审计委员会议程的一部分,该议程此前更狭隘地关注隐私和安全。 总统说:“你必须提供足够的激励——胡萝卜或大棒,以确保人们认真对待这一问题。”
考虑算法和总体数据使用的影响
组织应不断评估他们使用的算法和数据的效果,并测试整个价值链中的偏见。 这意味着要考虑组织在构建人工智能产品时可能会产生的问题,甚至是在无意中产生的问题。 例如,谁可能因算法或数据的特定使用而处于不利地位? 我们采访的一位技术专家建议提出一些棘手的问题:“在关于人工智能的会议上,先问自己:‘我们正在构建的算法是否存在性别歧视或种族主义?’”
某些数据应用程序需要更严格的审查和考虑。 安全就是这样一个领域。 一位科技公司高管回忆起他的组织为防止其图像和视频识别产品和服务被滥用而采取的额外措施:“我们坚持认为,如果您要将我们的技术用于安全目的,我们必须积极参与确保 你尽可能地消除数据集的偏差,这样特定群体就不会被不公平地挑选出来。” 重要的是不仅要考虑正在使用的数据类型,还要考虑它们的用途以及它们可能的用途。