人工智能的主要伦理问题

Published on 21 Oct 2022

道德、担忧、人工智能

智能机器系统正在通过优化物流、检测欺诈、创作艺术、进行研究和提供翻译来改善我们的生活。随着这些系统能力的提高,我们的世界变得更加高效,从而变得更加富裕。

Alphabet、亚马逊、Facebook、IBM 和微软,以及斯蒂芬·霍金和伊隆·马斯克等人都认为,现在是讨论人工智能几乎无限领域的时候了。从许多方面来看,这既是道德和风险评估的新前沿,也是不断发展的技术的新前沿。那么,哪些担忧和讨论让人工智能专家夜不能寐呢?

另请参阅: 金融科技初创公司 TrueLayer 融资 7000 万美元

1. 失业

劳动力的等级制度在很大程度上与自动化有关。随着我们开发出自动化任务的方法,我们可以腾出空间让个人承担更复杂的责任,从主导前工业世界的体力劳动转向定义全球化社会战略和行政工作的认知交付。

以卡车运输为例:仅在美国,卡车运输就雇用了数百万人。如果埃隆·马斯克的自动驾驶卡车在未来十年内广泛普及,他们会怎么样?同样的事情也可能发生在办公室职员和全球其他劳动力身上。然而,考虑到事故发生率的降低,自动驾驶卡车是一个合乎道德的决定。

这引出了我们将如何利用时间的问题。大多数人仍然依靠出卖时间来养活自己和家人。这种选择将使个人在非劳动活动中找到意义,例如照顾家人、参与社区活动以及发现为人类文明做出贡献的新方法。

如果我们熬过了这一转变,也许有一天,我们回首往事,会认为人类被迫出卖大部分清醒的时间以求生存是极其野蛮的行为。

2. 不平等

我们的经济体系建立在对经济贡献的报酬之上,这通常用小时工资来衡量。在商品和服务方面,大多数企业仍然依赖小时工。然而,通过使用人工智能,企业可以大大减少对人力的依赖,从而减少获得报酬的人数。因此,拥有人工智能驱动企业的人将赚得所有的钱。

我们已经看到贫富差距不断扩大,初创公司创始人从他们创造的经济盈余中分得了不成比例的份额。2014 年,底特律最大的三家公司和硅谷最大的三家公司的收入大致相同……只是硅谷的员工数量是底特律的十倍。

如果我们设想一个后工作社会,我们如何组织一个公平的后劳动经济?

3. 人性

人工智能机器人在模拟人类互动和关系方面越来越熟练。2015 年,机器人尤金·古斯特曼 (Eugene Goostman) 首次赢得了图灵挑战赛。在这项任务中,人工评分员利用文本输入与未知实体进行互动,然后判断他们是在与人交谈还是与计算机交谈。尤金·古斯特曼欺骗了超过一半的人类评分员,让他们相信自己正在与某人交谈。

这只是我们日常与计算机打交道的时代的开始,无论是在客户服务还是销售方面。虽然人类在与他人打交道时所投入的时间和注意力有限,但人工智能机器人可能会投入几乎无限的资源来发展联系。

人类依赖的未来前沿是技术成瘾。尽管我们中很少有人意识到这一点,但我们已经看到机器人如何激活人类大脑中的奖励中心。以点击诱饵标题和视频游戏为例。这些标题通常使用 A/B 测试进行调整,这是一种吸引我们注意力的基本算法优化内容。这种技术和其他技术使许多视频和手机游戏令人上瘾。

另一方面,我们可以为软件创造另一种用途,这种软件之前已被证明能够成功引导人类注意力并发起特定活动。如果正确使用,它可以推动社会朝着更理想的行为发展。然而,如果落入坏人之手,它可能会造成危害。

4. 人工精神错乱

无论是人类还是计算机,学习都是智能的源泉。系统通常会经历一个训练阶段,在这个阶段,它们会“学习”识别正确的模式并根据输入做出反应。一旦系统完全训练完毕,它就会进入测试阶段,接受更多实例的测试,并评估其性能。

训练过程只能涵盖系统在现实世界中会遇到的一些场景。这些系统可以被以人类无法做到的方式欺骗。例如,随机的点图案可能会导致系统“看到”不存在的物体。如果我们依靠人工智能引领我们进入一个劳动力、安全和效率的新时代,我们必须确保机器按预期工作,并且人类不能操纵它来实现自己的目标。

5. 人工智能偏见

人工智能的处理速度和能力远超人类,但人们并不总能相信它是公正无私的。谷歌及其母公司 Alphabet 是人工智能领域的领军企业,谷歌照片就利用人工智能来识别人物、物体和场景。然而,人工智能也可能出问题,比如相机的种族敏感性失效,或者用于预测未来犯罪者的软件对黑人表现出偏见。

我们必须记住,人工智能系统是由人类设计的,而人类可能会有偏见和判断力。再说一次,如果正确使用人工智能或由希望社会进步的人使用,人工智能可能会催化有益的变化。

6. 安全

技术越强大,就越有可能被用于邪恶或善良的用途。这不仅适用于旨在取代人类军队或自主武器的机器人,也适用于如果误用可能造成危害的人工智能系统。由于这些战斗不仅仅发生在战场上,网络安全将变得更加重要。毕竟,我们正在使用的系统比我们自己快几个数量级,也更有能力。

7. 精灵恶棍

如果人工智能对我们怀有敌意会怎样?我们必须关注的不仅仅是对手。这并不意味着像人一样变得“坏”,也不意味着像好莱坞电影描绘的人工智能灾难那样。相反,我们可以将强大的人工智能系统想象成一个“瓶中精灵”,能够满足欲望,但会带来灾难性的意外后果。

在计算机的情况下,可能存在恶意,只是缺乏对请求表达的完整上下文的了解。考虑一个人工智能系统,其任务是根除全球癌症。经过大量计算,它得出了一个公式,该公式确实可以消除癌症——通过杀死地球上的每个人。机器很容易实现“不再有癌症”的目标,但方式却不像人类计划的那样。

8.奇点

人类之所以能位居食物链顶端,并非因为拥有锋利的牙齿和强大的肌肉。人类的优势很大程度上归功于我们的创造力和智慧。我们可以通过建造和使用控制动物的工具(如笼子和武器)以及认知技术(如训练和调节)来击败体型更大、速度更快、更强壮的动物。

这引发了人们对人工智能的一个重要担忧:人工智能有一天会比人类拥有同样的优势吗?我们也不能仅仅依靠“拔掉插头”,因为足够进化的计算机可能会预测到这种动作并保护自己。有些人称之为“奇点”:人类不再是地球上最聪明的物种的时刻。

另请参阅: 金融科技公司 Plaid 在 D 轮融资中筹集 4.25 亿美元

9. 机器人特权

虽然神经科学家仍在试图揭开意识体验的奥秘,但我们正在更多地了解奖励和厌恶的基本原理。在某些方面,我们正在人工智能系统中开发类似的奖励和厌恶过程。即使是基本的生物也有这些系统。例如,强化学习类似于狗的训练,因为增加的行为会得到虚拟奖励。

这些系统现在相当肤浅,但正变得越来越复杂和逼真。当一个系统的奖励机制提供负面反馈时,我们能认为它处于痛苦之中吗?此外,遗传算法通过同时构建多个系统实例来发挥作用,只有最有效的实例才能“存活”,并将它们组合起来生成下一代实例。这种情况会发生在许多代中,是一种系统改进的方法。失败的实例将被删除。我们什么时候会认为遗传算法是一种大规模谋杀?

当我们接受机器是具有感知、情感和行动能力的生物时,审视它们的法律地位并不是什么大问题。我们是否应该像对待聪明的动物一样对待它们?我们是否会考虑“有感觉”的机器所带来的痛苦?

有些伦理问题是为了减少痛苦,而另一些则是为了冒着不愉快的后果的风险。当我们考虑这些危险时,我们也应该记住,技术进步通常意味着每个人的生活都会更好。人工智能前景广阔,我们应该负责任地利用它。

特色图片: 图片来自 pch.vector

订阅 Whitepapers.online,了解科技巨头对健康、营销、商业和其他领域产生影响的最新更新和变化。此外,如果您喜欢我们的内容,请在 Facebook、WhatsApp、Twitter 等社交媒体平台上分享。