人工智能在客户沟通和服务中的使用正在迅速增长。这引发了有关公司是否有责任公平和非歧视地处理这些问题的问题。Pegasystems 列出了开发社会公正、非歧视性 AI 模型的五个最重要的步骤。
人工智能 (AI) 无法消除社会冲突和不公正现象的核心。但它有助于避免歧视,并更加重视多样性、包容性或性别平等等社会价值观。人工智能是企业在日常实践中实现相应合规和治理要求的宝贵工具。Pegasystems 是销售、营销、服务和运营战略软件解决方案的领先供应商,它确定了在实施社会公平的人工智能和机器学习模型时需要考虑的五个最重要的点。
明确的目标:在开发人工智能模型时,目标必须一致、清晰、简洁和易于理解。所有相关人员都在自然语言和数学语言之间的张力领域中前进。在最佳分工中,数据科学家充当业务功能和软件开发之间的纽带。他负责 AI 建模和算法,而业务可以专注于规范和软件开发人员。
正确的数据库:大型且具有代表性的数据库是模型准确性的重要前提。可用的数据越多越好,人工智能模型训练得越精确。必须始终在所需的准确性与训练数据采集的成本和可能性之间做出折衷。至少部分解决这种冲突的方法是通过学习算法提供的,这些算法允许基于连续传入的实时数据进行训练。
适当的抽象级别:AI 模型使用基于统计的算法以便能够做出陈述。如果样本中特征的分布(例如在训练数据中)与总体中特征的真实分布(即使用上下文)不对应,则存在偏差。模型必须更抽象,陈述的代表性有限,只能在有限的程度上满足目标。
特征的权重:在诸如《薪酬透明法》或招聘中更公平的性别比例等规范的操作实施中,必须对许多因素进行加权。例如,如果您想在HR 流程中公平地评估美国申请人和芬兰申请人的最终成绩,则它们必须具有可比性。但是,如果相应的数据不可用或仅在有限范围内可用,则算法必须进行抽象,这会导致模型质量和适用性的损失,并最终在个别情况下也失去公平性。
自我强化过程的影响:女艺人(1)对流媒体门户的推荐率约为25%。这种低存在使其保持低位。这种自我强化过程在 AI 中被称为过度拟合。通过分析使用的模型和数据,数据科学家可以识别过拟合,并通过适当的措施(例如降低模型的复杂性或调整特征的优化)将过拟合最小化。其先决条件是制定相应的目标。
Pegasystems 项目交付负责人 Florian Lauck-Wunderlich 解释说:“现有的 AI 模型可以揭示缺陷并帮助实施社会期望的解决方案来消除它们。” “然而,为了解决必须比较不同目标以及必须将智力转移到其他模型和方法的复杂问题,我们需要一个目前正在深入研究和开发的强大人工智能。”