15 年来,Stack Overflow 一直是计算机编程和开发讨论的主要中心。 遇到棘手难题或在代码中遇到困难的用户可以在这里向其他用户提问。
从历史上看,它一直是男性主导的空间。 在该组织 2022 年对其用户进行的年度调查中,92% 的受访者为男性,四分之三为白人或欧洲人。 该平台当时承认,它“还有大量工作要做”。
但到了 2023 年,Stack Overflow 于 6 月 13 日发布的调查剔除了有关性别和种族的问题。
董事会成员 Sasha Luccioni 表示:“如果他们决定不询问人员情况,我可以理解,但他们仍然会询问地理位置、年龄、开发人员类型、编码年限以及有关薪资和教育的一系列问题。” Women in Machine Learning 是一个游说组织,旨在提高对科技领域女性的认识和欣赏。 “但不是性别。 这实在是太搞砸了。”
卢奇奥尼表示,决定不收集性别平衡数据——特别是在前几年显示性别平衡数据严重偏差之后——是在回避而不是面对这个问题。 “这是科技行业的典型症状,”她说。 “这不仅与人工智能有关,而且与一般情况有关。 比如,谁、谁编写了我们的代码? 年轻的白人男性。”
2022 年,发表人工智能学术论文的研究人员中只有四分之一是女性。 至少一名男性作为人工智能研究作者出现的可能性是人工智能出版物中至少有一名女性的两倍。
Stack Overflow 营销副总裁 Joy Liuzzo 表示:“我们并没有将人口统计问题从今年的调查中排除,以逃避我们在这方面的责任。” “考虑到日益复杂的监管环境和调查的高度国际性,出于对个人身份信息的担忧,我们删除了人口统计问题。”
Liuzzo 承认,“要让软件开发领域更加多元化和包容性,还有很多工作要做,Stack Overflow 在这项工作中可以发挥重要作用。” 她说,该组织最近几周发布了一套新的、更具包容性的行为准则,并彻底改革了在平台上提问的流程。 她希望这将减少进入壁垒,这在历史上可能导致代表性不足的群体回避该网站。 “我们认识到还有很多工作要做,我们致力于努力实现变革,”她说。
然而,这对于伦敦国王学院人工智能和社会领域的读者 Kate Devlin 来说并不算什么安慰。 “众所周知,科技行业存在性别问题,”她说。 “如果我们真的想增加科技的多样性,那么我们就需要知道情况是什么样的。” 德夫林指出,如果没有数据基线,就很难衡量进展或倒退。
无论出于什么原因删除有关谁在使用该平台的关键问题,调查结果(或缺乏调查结果)都凸显了 Stack Overflow 用户人口统计的问题,以及整个技术领域的一个更广泛的问题:非男性参与者的代表性严重不足。
“从年度调查中删除性别是对科技行业普遍存在的性别差距问题的严重消除。 更糟糕的是,它消除了被抓取并输入大型语言模型的数据的重要上下文,”德蒙福特大学计算和社会责任学者 Catherine Flick 说。 “如果没有这种背景,数据集的偏见是未知的,而且有充分证据表明,性别偏见经常内置于技术中,从变量名称到表单字段,再到有关职业、角色和能力的假设。”
根据美国国家科学基金会的数据,获得科学、技术、工程和数学学位的女性比以往任何时候都多,尽管获得计算机科学本科学位的女性比例下降了近 20 个百分点。 过去40年。 (女性获得计算机科学硕士学位的比例略有增加。)但即使管道得到修复,让女性留在科技领域也很棘手。 埃森哲的数据显示,进入该行业的女性中有一半在 35 岁时退出。
由于科技在我们的生活中无处不在,尤其是人工智能将融入我们所做的一切和与之互动的一切中,这个问题变得更加紧迫。 技术平台背后的人们对其产品和工具做出了无数大大小小的决定,这些决定可能会损害与他们不同的人。
“使用非人工智能代码,你可以调试它,从不同的人群中获得第二双眼睛,并非常直接地检查它,”卢乔尼说。 “但如果你有人工智能代码,所有这些驱动数据或模型架构的决策都会被融入其中。”
以 ChatGPT 的早期版本为例:该工具提供的响应表明其信仰系统是硬编码的,即优秀的科学家是白人,而其他人不是。 这个问题已经得到解决,OpenAI 首席执行官 Sam Altman 要求用户通过在未来标记此类响应(用“大拇指朝下”按钮标记它们)来帮助训练模型,但更广泛的问题仍然存在。
牛津大学人工智能伦理研究所副教授卡丽莎·维利兹 (Carissa Véliz) 表示:“过去二十年开发和实施人工智能的人留下的部分遗产是,他们对性别平等方面令人担忧的倒退负有部分责任。” 。
贝利兹担心,从社交媒体到我们现在使用的新的生成人工智能工具,设计和编码主要平台时的性别不平衡会对这些平台对待女性的方式产生负面影响。 “从社交媒体伤害女性的方式到雇佣算法为男性提供更多机会和歧视女性,科技兄弟带回了一种有毒文化,这种文化不仅对女性不利,而且对整个社会不利,”她说。
弗里克担心,如果没有关于谁在编写我们每天可能使用的工具的明确数据,可能会被编码到其中的偏见“注定会在 LLM [大型语言模型] 产生的结果中复制,进一步 巩固它。”
这种情况必须快速改变,尤其是在人工智能方面。 “在那之前,”维利兹说,“我们拥有道德人工智能的希望渺茫。”