建立人工智能的道德原则
Published on 26 Feb 2022
人工智能正在改变大学教学和教师开展研究的方式。然而,人工智能在教育领域的应用仍面临一些严峻挑战。
其中包括在收集大量有关学生能力的数据时涉及的隐私问题。还可能存在有意识和无意识的偏见,这可能会对结果产生不利影响等等。人们还担心所用数据的质量;不准确的测量或伪造的数据可能会产生错误的结论并创建一个有风险的决策平台。
另请参阅: 适用于关键任务应用程序的 VMware Cloud On AWS
监督学习和无监督学习都有缺点。欧洲议会的一项调查显示,监督学习的训练数据集必须真实地代表手头的工作;否则,人工智能就会表现出偏见。无监督学习模型很有前景,但它们在计算上很困难,需要熟练的人参与来修改和评估输出。
教育领域的许多机器学习模型都是利用人类产生的数据构建的。然而,这些模型只能预测经过训练后可以预测的内容。
如果开发人员没有注意到并纠正,训练数据中的人为偏见很容易导致计算偏差。人工智能伦理建立了道德标准和治理框架,以指导人工智能的发展和适当应用。
在学术项目中实施人工智能时需要考虑以下五件事:
- 鉴于上述框架仍在制定中,学术机构必须成立一个人工智能伦理委员会,以保持对人工智能项目的控制,并在内部和外部利益相关者中建立对人工智能工具的信任。该委员会可以制定一份人工智能路线图,并强调必须做出的关键选择。例如,需要什么样的知识,以及必须建立什么样的治理和标准。
- 建立明确的道德和治理框架以保证人工智能解决方案符合 GDPR 等监管标准至关重要。
- 麦肯锡表示,人工智能可能有助于减少偏见,但它也可能加剧偏见。据这家管理咨询公司称,问题的主要原因是底层数据质量,而不是算法。预处理数据是重要的一步,不仅可以保持尽可能高的准确性,还可以消除偏见和非最佳数据。
- 人工智能的有效性取决于所处理数据的质量。你必须确保数据操作中没有数据泄露,以免污染数据。数据也必须完整,没有差异,否则结果将是错误或不充分的。
- 从一开始就创建基础设施和分析能力。需要大量数据来为人工智能提供数据并构建机器学习算法。
下载阅读 Orange Business Services 的完整白皮书,了解在人工智能 (AI) 中建立道德原则的重要性。