根据一个全球专家团队的观点,我们需要停止仅仅为了创新而开发新的人工智能技术,因为创新会迫使我们调整实践、习惯和法律来适应这种技术。相反,他们主张按照以人为本的人工智能设计原则,创造能够精确满足我们需求的人工智能。
来自世界各地的 50 位专家为一本关于如何使人工智能更加”以人为本”的新书撰写了研究论文,探讨了不使用这种方法的风险和错失的机遇,以及实施这种方法的实用方法。
这些专家来自加拿大、法国、意大利、日本、新西兰和英国等 12 个国家,以及计算机科学、教育、法律、管理、政治学和社会学等 12 个学科。
《以人为本的人工智能》审视了各种背景下的人工智能技术,包括农业、工作场所环境、医疗保健、刑事司法和高等教育,并提出了更加”以人为本”的适用措施,包括监管沙盒和跨学科工作框架的方法。
什么是以人为本的人工智能?
人工智能(AI)正以越来越快的方式渗透到我们的生活中,一些专家认为,仅仅依靠技术公司来开发和部署这项技术,以真正提升人类的体验,从长远来看将对人类不利。这就是以人为本的人工智能的由来。
苏格兰爱丁堡大学的香农-瓦洛尔(Shannon Vallor)是世界上研究以人为本的人工智能的最重要专家之一,他解释说,以人为本的人工智能是指帮助人类繁荣发展的技术。
她说:”以人为本的技术是指将整个技术生态系统与人类的健康和福祉结合起来。与之形成鲜明对比的是,那些旨在取代人类、与人类竞争或贬低人类价值的技术,与那些旨在支持人类、增强人类能力、丰富人类生活并强化人类的技术。”
她指出,近年来流行起来的生成式人工智能就是一个不以人为本的技术范例–她认为,这种技术的创造者只是想看看自己能让系统变得多么强大,而不是为了满足人类的需求。
“我们得到的是我们必须应付的东西,而不是由我们设计、为我们服务并使我们受益的东西。这不是我们需要的技术,”她解释说,”我们不是让技术适应我们的需求,而是让自己适应技术的需求”。
人工智能有什么问题?
《以人为本的人工智能》一书的撰稿人阐述了他们对人工智能的希望,同时也对人工智能目前的发展轨迹提出了许多担忧。
来自意大利博洛尼亚大学和卢森堡大学的马尔维娜-安娜-沃伊奇克(Malwina Anna Wójcik)指出了当前人工智能发展中的系统性偏见。她指出,在人工智能技术的设计和开发过程中,历史上被边缘化的群体并没有发挥有意义的作用,这导致了”主流权力叙事的固化”。
她认为,缺乏关于少数群体的数据,或者现有数据不准确,导致歧视。此外,人工智能系统的不平等可用性导致权力差距扩大,边缘化群体无法进入人工智能数据循环,同时也无法从这些技术中受益。
她的解决方案是研究的多样性,以及计算机科学、伦理学、法律和社会科学交叉领域的跨学科合作项目。在政策层面,她建议国际倡议需要涉及与非西方传统的跨文化对话。
与此同时,加拿大汤普森河大学的马特-马龙(Matt Malone)解释了人工智能如何对隐私构成挑战,因为很少有人真正了解他们的数据是如何被收集或使用的。
他解释说:”这些同意和知识上的差距导致了对隐私领域的永久入侵,否则,隐私可能会寻求控制。隐私权决定了我们让技术进入人类生活和意识领域的程度。但随着这些冲击逐渐消失,隐私很快就会被重新定义和重新认识,而且随着人工智能捕获更多的时间、注意力和信任,隐私将继续在划分人类与技术的界限方面发挥决定性作用。”
马龙认为,”隐私将随着人们对人工智能技术的接受或拒绝而变化”,即使技术带来了更大的平等,个性也很可能受到威胁。
人工智能与人类行为
除探讨社会影响外,撰稿人还调查了当前形式的人工智能使用对行为的影响。
以色列行为科学研究所的奥什里-巴尔-吉尔(Oshri Bar-Gil)开展了一项研究项目,探讨使用Google服务如何改变自我和自我概念。他解释说,当我们使用一个平台时,就会产生一个数据”自我”,然后平台就会从我们的使用方式中获取更多数据,然后利用我们提供的数据和偏好来提高自己的性能。
“这些高效有益的推荐引擎有一个隐藏的代价–它们对我们人类的影响,”他说。”它们改变了我们的思维过程,改变了我们在数字领域和现实世界中的意向性、理性和记忆等人类核心方面,削弱了我们的能动性和自主性。”
新西兰惠灵顿维多利亚大学的阿利斯泰尔-诺特(Alistair Knott)、英国伦敦大学学院阿兰-图灵研究所的塔帕布拉塔-查克拉博蒂(Tapabrata Chakraborti)和意大利比萨大学的迪诺-佩德雷斯基(Dino Pedreschi)也对人工智能在社交媒体中的广泛应用进行了研究。他们解释说:”虽然社交媒体平台使用的人工智能系统在某些意义上是以人为本的,但其运行的几个方面值得仔细研究。”
问题的根源在于,人工智能会不断从用户行为中学习,在用户持续使用平台的过程中完善其用户模型。但用户往往会点击推荐系统为他们推荐的项目,这意味着随着时间的推移,人工智能系统很可能会缩小用户的兴趣范围。如果用户与有偏见的内容互动,他们就更有可能被推荐这些内容,如果他们继续与这些内容互动,他们就会发现自己看到了更多的内容:”简而言之,有理由担心推荐系统可能会使用户走向极端主义立场”。
他们提出了一些解决这些问题的办法,包括提高持有推荐系统数据的公司的透明度,以便更深入地研究和报告这些系统对用户对有害内容的态度所产生的影响。
以人为本的人工智能如何在现实中发挥作用?
加拿大蒙特利尔大学的皮埃尔-拉鲁什(Pierre Larouche)认为,将人工智能视为”独立的法律和监管对象”,并假定”目前没有适用于人工智能的法律”,这让一些政策制定者感到这是一项难以完成的任务。
他解释说:”由于人工智能被视为一种新的技术发展,因此可以推定目前还不存在与之相关的法律。同样,尽管有关人工智能的具体规则很少,甚至完全没有,但由于人工智能与社会和经济关系的内在联系,可以适用于人工智能的法律并不缺乏”。
Larouche 认为,我们面临的挑战不是制定新的法律,而是确定如何扩展现有法律并将其应用于人工智能:”允许将辩论定格为在空白的法律页面上进行无限制的伦理讨论,可能会对政策制定产生反作用,因为这会为各种旨在无限期延长讨论的拖延战术敞开大门,而技术却在继续快速发展。”
魁北克人工智能研究所(Mila)是致力于人工智能的最大学术团体之一,该研究所负责政策、社会和全球事务的副所长本杰明-普罗姆(Benjamin Prud’homme)也呼吁决策者要有信心。
他解释说:”我的第一个建议,或者说我的第一个希望是,我们开始摆脱创新与监管之间的二元对立–我们承认,如果创新是不负责任的,那么扼杀创新也未尝不可。我想告诉政策制定者,要对他们监管人工智能的能力更有信心;是的,这项技术是新的,但如果说他们过去没有(成功)应对过与创新相关的挑战,那是不准确的。人工智能治理界的很多人都害怕不能从一开始就把事情做对。要知道,我在决策圈的经验告诉我,我们很可能无法从一开始就把事情做得完全正确。没关系。没有人有魔杖。因此,我想对决策者说以下几点:认真对待这个问题。尽力而为。在尝试建立正确的管理机制时,邀请各方–包括边缘化社区和最终用户–参与讨论。但不要让自己被少数声音所麻痹,这些声音认为政府无法在不扼杀创新的情况下对人工智能进行监管。在这方面,欧盟可以树立一个榜样,因为雄心勃勃的《人工智能法》将在未来几个月内获得最终批准,这是第一部关于人工智能的系统性法律。”
参考文献:《以人为本的人工智能–决策者、审计人员和用户的多学科视角》,2024 年 3 月 21 日。
doi: 10.1201/9781003320791
编译自:ScitechDaily