财新传媒 财新传媒

阅读:0
听报道

来源:Brendan McCord与MIT教授Bernhardt Trout就人工智能是否会促进或抑制人类繁荣展开的辩论

日期:2024年6月4日

我们应该对人工智能的未来持乐观还是悲观态度?在人工智能时代,智能究竟是什么?人工智能将如何影响人类的自主性、独立性和卓越性?今年春天,Brendan McCord 和 Bernhardt Trout 就这些问题展开了激烈辩论。辩论由斯基德莫尔学院 Periclean 荣誉论坛主办,双方首先发表了开场陈述,随后在主持人和学生的提问下,就自由与平等、美德与自由、智能与教条等问题进行了深入探讨。Brendan McCord 是宇宙研究所的创始人兼主席,也是两家被以4亿美元收购的人工智能初创公司的创始人,同时还是美国国防部首个应用人工智能组织的创始人。Bernhardt Trout 是 MIT 的 Raymond F. Baddour (1949) 化学工程教授,他是分子工程实验室的首席研究员,并定期教授工程师伦理课程。  

以下是 Brendan 和 Bernhardt 的开场陈述、他们在主持人提问下的进一步交流以及观众问答(经过编辑)。  


一、人工智能、集体智慧与人类的自由和卓越

(Brendan McCord,宇宙研究所创始人兼主席)

引言

当前的人工智能范式,以 ChatGPT 为代表,其特点是模仿人类、基于互联网的显式语义知识进行训练,并设计为人与机器之间的一对一交互。我认为,过度关注当前范式限制了我们对于可实现的各种智能形式的思考。  

假设有一个火星版的斯基德莫尔计算机科学系,他们派遣使者到地球寻找改进其计算机的灵感。这些火星“精英”会认为地球上的哪些事物是智能的?毫无疑问,人类的大脑和心智是一个突出的例子。然而,他们还会注意到,周围的人类在彼此不知情的情况下,追求各自不同的目标,却能够合作并共同适应,从而发现社会均衡。他们会看到个体基于分散的、局部的知识做出决策,同时无意中分享这些知识,并激发有价值的新知识的产生。火星人会观察到,这个系统具有高度的适应性和韧性,能够在大小规模上运作,并且在没有软件更新或集中控制的情况下运行了几个世纪。有人能猜到我描述的是哪个系统吗?【市场】  

我们通常不会将市场秩序视为一种“超级心智”,但火星人无疑会这样认为,因为他们不受人类中心思维的束缚。想象一下,如果未来的人工智能不仅受到人类大脑和心智的启发,还受到这种“交互智能”隐喻的启发——即由多样化代理网络互动中涌现的智能。在这样的未来,我们可以对人工智能支持人类自由和独立追求卓越的潜力持乐观态度。  

接下来,我将简要探讨各种智能形式与哲学历史时期之间的联系。然后,我将通过“科学共和国”和“市场秩序”这两个关键概念,说明当代存在的一种“超级心智”,它非常适合通过人工智能进行增强。最后,我将应用这些见解,勾勒出一条通往有益人工智能未来的道路,促进自由与美德。  

技术与进步的哲学

那么,科学和技术如何促进个体和集体智能的解放与发展?简而言之:从亚里士多德和古代的观点出发,人类并非天生孤立的生物,而是政治动物,他们与其他公民一起组成城邦,培养言语和理性的能力,达到高度发展。这使得对正义和美好生活的道德关注得以充分发展。尽管这种观点在某种意义上将集体置于首位,但集体并未扩展到科学或智能。相反,哲学家认为他们的活动最终以对永恒智慧的孤立和独享的沉思为乐——即使这种活动发生在像吕克昂这样的小学校中,科学也远非一个系统的、多代际的、协作的、旨在改造社会或自然的项目。  

然而,现代人认为他们可以超越亚里士多德——通过一种新型的文明规模项目,使世界更加自由、公正和舒适。17世纪的思想家弗朗西斯·培根将科学重新定位为一种无限和开放的集体努力,旨在解放智力,释放人类伟大,摆脱稀缺和出生带来的限制。精英科学家团队开始开辟受保护的空间,利用印刷技术传播和积累他们的发现知识。  

这一发展从仅仅是一种新的科学愿景转变为世界变革的模型,得益于19世纪洛克-斯密政治经济学的出现。这一思想流派捍卫并传播了市场的集体智能和所谓的“自由文明的创造力”。这催生了伟大的技术发明和人类在众多领域的进步,同时揭示并解放了一种在古代世界被严重压制的智能形式:交互智能。  

稍后,我们将探讨这一概念作为人工智能的新前沿,并讨论它如何保护和促进自由与美德。但首先,我将更充分地解释当今最先进的集体智能形式的存在。  

自发性秩序作为隐喻

现代项目为复杂适应系统的出现铺平了道路,这些系统远远超越了个体人类智能的范围,同时又优雅地补充了它。这些新秩序是“自发的”,或者如18世纪哲学家亚当·弗格森所说,“人类行动的产物,而非人类设计的产物”。它们依赖于我们可能称之为自发和集体的智能形式,两位20世纪的思想家迈克尔·波兰尼和弗里德里希·哈耶克将这一概念置于他们工作的核心。  

波兰尼通过“科学共和国”的概念揭示了科学家社区通过间接协调调整其工作的方式。他用拼图游戏的隐喻来解释这一点。科学家们不是孤立工作,而是在彼此的视野中尝试解决拼图,从而在集体反馈循环中从彼此的适应性尝试中受益。我们无法预测这些调整将如何进行,但由此产生的进步是无限制、无预谋、去中心化智能的共同成就。  

这种集体智能模式在今天的市场中得到了反映,弗里德里希·哈耶克称之为“市场秩序”。市场秩序指的是具有不同知识和目的的个体通过价格机制自发调整其计划的过程。每个个体无意中将其行动与市场秩序中的其他参与者协调,而没有任何实体从一开始就设计或决定了最终的秩序。  

市场并非唯一存在的复杂智能,但它与蚁群或蜂巢不同,因为它既有利于个体,也有利于集体;正如亚当·斯密所说,在市场中,我们通过提供他人所需来获得自己所需。人类的自我利益因此被多样化地转化为集体生产性目标。  

无论是在食品的生产和分配中,还是在新企业的资本配置中,我们都可以通过社区共识、全球等级社会主义、直接民主或国家超级计算机来组织。但这些选择将是僵化、静态和低效的。它们会扼杀创新,限制选择,使人们依赖于中央实体,并加剧对日益稀缺资源的冲突。  

“市场秩序”在没有要求人们成为天使或存在超级智能单一体的情况下,高效地完成了这些任务。正如经济学家唐·拉沃伊所写:“无论是人类还是非人类,当它们通过市场协调时,它们实现了比单一超级计算机层次化组织所有经济活动所能实现的更大的社会智能。”  

人工智能与复杂性

那么,这一切如何应用于人工智能?我想提出,波兰尼的科学共和国和哈耶克的市场秩序概念阐明了我们与人工智能互动可能产生的那种智能。正如我们无法完全理解市场的内部运作,也无法预测市场将涌现的创新一样,我们也不完全理解人工智能将如何利用交互智能。但具体来说,这会如何运作?  

我们预见一个基于市场原则的行星级计算、数据和物理实体网络,使人类环境更加支持、充满活力和安全。用计算机科学家迈克尔·乔丹(不是《太空大灌篮》的演员)的话来说,交互智能任务不仅可以被视为提供服务,还可以被视为创建智能市场,引入新的生产者和消费者,同时打破信息不对称,更好地协调双方的需求。这里的“参与者”既可以指人类,也可以指人工智能。  

两个例子:在商品和服务领域,我们已经从静态目录转向基于人工智能的推荐系统。但在许多领域,我们的偏好是如此情境化、细粒度和即时化,以至于公司无法收集足够的数据来了解我们真正想要什么。这样做将需要深入窥探我们的私人思想。通过智能市场赋予生产者和消费者权力是一个有吸引力的替代方案。  

另一个例子是一个革命性的医疗系统,它在医生和设备之间建立了一个数据和分析流的市场,结合来自“生产者”参与者(如身体中的细胞、DNA、血液测试、环境、群体遗传学以及关于药物和治疗的大量科学文献)的信息。这个系统将不仅作用于单个患者和医生,而是作用于所有人类之间的关系,从而使获得的知识能够应用于其他人的护理中。  

在这两个例子中,技术工作是巨大的;它将需要克服诸如管理快速变化且全球不一致的分布式知识库、解决跨行政和竞争边界共享数据的困难,以及将激励和定价等经济思想引入连接人类、人工智能参与者和有价值商品的统计和计算基础设施等挑战。  

根据迈克尔·I·乔丹的说法,音乐、文学、新闻等领域迫切需要引入这种市场,其中数据分析将生产者和消费者联系起来。  

这一愿景只有在我们拓宽对人工智能的概念,从聊天机器人或围棋冠军转向激发新形式交互智能的工具时,才能实现。  

人工智能复杂性的道德政治影响

最后,我将阐述这一愿景对人类人工智能未来的道德政治影响。  

虽然古代哲学家认为美德秩序需要由法律或法规体现和执行的目的层次结构,但现代奇迹并非如此实现。相反,对法治和自然权利抽象理念的承诺使个人免于强制、匮乏和苦役,催生了一种去中心化、自发性的秩序:一种交互智能,进而带来了现代医学、改善的交通和住房、广泛的物质丰富、近乎无限的创意作品访问以及休闲的巨大增长。  

如果我们转向一种新的人工智能设计模型,补充和增强这种集体智能,而不是颠覆个体,人工智能将以不可预测但方向积极的方式扩展我们的解放。自由和美德是可能的——但并非必然。我们必须警惕未来更为平庸的可能性中潜伏的危险,在这方面,我认为 Bernhardt 会同意。  

在《论美国的民主》中,亚历克西斯·德·托克维尔警告了一种“软”专制——我们可能会欢迎一个中央集权国家,因为它承诺减轻我们“生活的负担和思考的痛苦”。但渐渐地,这使我们依赖于它——最终限制了我们积极使用自由,并削弱了我们所能实现的伟大。  

为了应对这种微妙的威胁,托克维尔主张加强个体,保护他们的自主性,抵御各种非人格力量,无论是多数意见还是算法。在这种叙述中,美德需要独立和自由地运用人类的高等能力,否则这些能力将会萎缩。它还需要自由教育来加强独立判断,使我们不会放弃思考。  

这是下一个时代人工智能发展的任务:创造更多工具,增强自发性秩序中的个体独立精神,这种慷慨的自由领域是积极追求人类卓越的主要推动者。正如利用市场为人类繁荣服务需要我们所有人的共同努力,利用人工智能为人类繁荣服务也将同样具有挑战性。  

在这种观点下,我们并不是在逃避人类能动性:人工智能超级心智既不会提供自动的诅咒,也不会提供自动的救赎。这不仅关乎个体的伟大,也关乎我们整个文明的伟大。哈耶克,像之前的密尔一样,提醒我们,自由文明的动态力量依赖于大量多样思想和行动的激烈协调和冲突。没有这种多样性,文明将沦为平庸。  

最后,我想引用托克维尔的话。我们无法选择是否拥有人工智能;停止发展,就像停止民主一样,既不可能也不明智。然而,人工智能将引领人类走向奴役还是自由,启蒙还是野蛮,繁荣还是苦难,这取决于我们。  

在X国,我们看到了一个可能的未来,安全和社会控制的动机使公民依赖于一个中央集权的、人工智能支持的XX体制。通过利用人工智能的市场秩序可能性,借助交互智能,我们可以为当今时代的依赖性和智力衰退提供强有力的解药。

二、人工智能与人类

(Bernhardt Trout,MIT化学工程教授)

非常感谢泰勒教授的邀请,让我能够讨论这一重要话题,也感谢 McCord 先生参与讨论并发表了重要且有益的开场演讲。此外,我还要感谢他对自由教育的兴趣,并通过他的宇宙研究所应用自由教育来应对社会在人工智能日益主导下面临的挑战。我也从与 Stuart Diamond 先生、Steven Lenzner 博士和 Svetozar Minkov 教授的讨论中受益匪浅。  

我们讨论的问题是,人工智能是否会成为人类繁荣的威胁,或者是否会增强人类的自由和幸福。Brendan McCord 主张后者,而我则主张前者。让我首先说明,我并不怀疑人工智能有潜力增强人类的自由和幸福。我自己也在应用人工智能进行药物开发,许多其他人也是如此。健康无疑是自由和幸福的重要方面。自动驾驶汽车将使我们能够更好地利用时间。人工智能驱动的创新将改变零售业,使我们能够更快地获得更多我们想要的商品。总的来说,人工智能将创造更多的丰富性,为我们提供更多的“工具”——借用亚里士多德的术语。  

然而,我注意到,工具只是人类最基本的需求,而不是人类的终极目标。人类的终极目标必须高于单纯的肉体功能或享受。  

在开始之前,我想指出,人工智能是一个潜在的“存在性”威胁,它可能失控并摧毁我们,或者通过人工智能驱动的战争消灭我们。但我想聚焦于人工智能在按预期工作时对我们的影响。我的担忧可以简洁地表达为:随着我们让人工智能为我们做越来越多的事情,我们将逐渐放弃我们的自由,同时失去使用我们心智的能力。简而言之,我们将放弃使我们成为人类的东西。  

首先,我想提请你们注意,人工智能已经在削弱我们。例如,心理学家和社会媒体研究员 Jonathan Haidt 从大量研究中收集了数据,发现了一些可怕但不令人意外的结果。与社交媒体(人工智能驱动)相关的青少年心理健康问题大幅增加,增幅在50%到150%之间,具体取决于不同的指标。这对未来来说是一个灾难性的趋势,女孩受到的影响比男孩更大。  

另一个令人不安的事实是,在人工智能设备的世界中,我们如何度过我们的时间。根据《财富》杂志2023年的一篇文章,美国人每天平均花费4.5小时在智能手机上,比上一年增加了30%,我们每天平均查看手机144次。有人会认为这种分心不会妨碍我们追求成为更好的人的目标吗?随着人工智能的持续发展,人们与电子设备的互动是否会越来越多,而越来越少地参与现实世界、非数字世界,甚至最终完全沉浸其中,以至于忘记了现实世界?  

数字世界是分心的世界,它完美地满足了现代人对即时满足的渴望。分心可能是愉快的,或者可以让我们忘记痛苦,但它并没有给我们提供培养自我所需的平静和安静的时间,无论是学习音乐、艺术、数学或科学,还是最重要的,理解我们自己。  

在进一步探讨这些人类主题之前,我想先谈谈人工智能是什么,不是什么。首先,从其名称来看,它是“人工的”。它是人工的产物,而非自然的产物。它是由人类构建的,但它甚至不像锅、桌子或计算机那样是人工的。因为它是一种数学抽象。它不是一种物体,而是一个数学公式,一个高度复杂、非线性的公式,但仅此而已。  

数学公式永远无法完全捕捉任何人工的东西,更不用说自然的东西了。让我们从锅开始。也许数学可以很好地捕捉它的形状——数学特别适合处理形状。但它的颜色呢?将数学应用于颜色会将其转化为波长。我不知道你们怎么想,但474纳米的波长对我来说并不能充分代表蓝色。更进一步,锅上的图像的意义呢,比如奥德修斯被绑在桅杆上,听着塞壬的歌声?将这个图像转化为数字会使其变化更大,甚至比将蓝色转化为474纳米还要大。  

而这只是一个简单的锅。自然事物呢?我们在化学工程中有一个笑话,说明了这一点。笑话是,化学工程师将牛建模为一个球体。好吧,没有人笑,这表明要么这里没有人是工程师,要么工程笑话并不好笑。无论如何,假设我们更好地建模牛的形状,分辨率非常高,远远小于纳米,并且在三维空间中捕捉其内部运作。它仍然是一个模型,仍然必然忽略了牛的一些重要方面。  

事实上,我们对牛的数学模型是为了某种预定目的而进行的特定抽象。例如,我们可能想了解其代谢效率,并在模型中输入所有代谢过程。因此,我们从牛中抽象出了代谢。或者,假设我们想进行视觉识别,那么我们就从牛中抽象出了外观。任何数学模型都是一种严重不完整的抽象,因为它是为了特定目的而进行的特定抽象,由人类选择。  

然而,当数学应用于人类事物时,其缺陷最为明显。美、爱、思考、奋斗和正义等人类事物无法被数学化。将这些人类事物抽象为数学公式会使它们变得面目全非。如果《神曲》中的贝雅特丽齐被建模为一个数学公式,网格上的点或某个大型多项式,我们很难将其理解为美、慈善,甚至是一个人类。  

这让我想到了关于人工智能的另一点,它不是什么。它不是智能。它无法定义目的,而必须由具有智能并意图特定目标的人类编程。即使生成式人工智能可以生成自己的模型,它也必须由人类最初给出指令。人工智能无法主动发起行动。  

我们使用“学习”、“识别”甚至“幻觉”等术语来描述人工智能,但这些术语只是对数学功能的人性化描述。人工智能无法欣赏令人愉悦的事物(比如图灵的例子中的草莓和奶油),因为它无法欣赏任何事物。更重要的是,人工智能没有道德能力——它毕竟只是一个巨大计算器中的算法。  

在我们看来,人工智能算法产生的任何道德决策结果都不是决策,而是编程的结果,基于某个程序员输入的功利主义公式,而我们其他人可能不同意这个程序员,甚至可能不同意整个道德框架。即使我们同意程序员,程序员也无法预见每一种情况或任何具体情况。算法将最小化其编程模型与特定情况的数学抽象之间的差异,从而产生结果。没有道德主体。  

在讨论人类之前,我想提出另一个关于数学应用于描述自然的局限性,这是一个巨大的局限性。除了模型无法捕捉实际对象的所有方面之外,它无法处理可能支配世界一半的东西。它无法处理偶然性或随机性。它无法生成随机数,只能在大规模相同类型事件的极限下处理事件的随机性。  

然而,随机性被认为是物理过程的内在属性,比如电子的运动或流体流动。它甚至被认为是经济学和政治学的内在属性。我们所做的一切都至少在一定程度上涉及偶然性,每一个选择,每一次与同胞的互动。  

总之,任何人工智能模型都必然是不完整的,它是从世界到形状的数学抽象,是为了程序员选择的预定目的而进行的抽象。其内在局限性是数学的内在局限性,包括其无法处理偶然性。  

现在让我来讨论成为人类意味着什么。这显然是一个比人工更大的话题,时间有限,因此我将聚焦于几个主题,希望你们会觉得有说服力。  

成为人类意味着朝着某个目标培养自己。但不是任何目标,而是一个值得的目标。再次引用亚里士多德,更高的目标是那些本身就是目的的活动,比如艺术、科学、体育,或为国家和宗教服务。友谊也是本身就是目的的活动。  

人工智能机器人无法为了自身的目的而追求目标,因为它是纯粹功利主义的。充其量,我们可以说,对人工智能来说,只有目的。但人工智能能否帮助我们追求更高的目标?当然可以,通过以有用的方式编译信息,让我们更健康,并为我们提供更多时间从事有价值的活动。它肯定会促进科学的进步。因为作为科学的产物,它特别适合这一点。  

但说它可以并不意味着它一定会,事实上,我认为相反的结果更有可能发生。人工智能是为了满足现代人对即时和持续满足的渴望而制造的,但实际上并不会带来满足。因此,它特别擅长分心。人工智能可能为我们提供的额外时间很可能会被用于无意识的娱乐、上网或吸毒——根据盖洛普的调查,美国有17%的人定期使用大麻。  

鉴于运营人工智能公司的人有尽可能增加使用量的动机,很难想象随着人工智能的普及,人们会变得不那么分心。此外,技术社会本身创造了分心的需求,作为应对异化或对技术未能实现的乌托邦期望的不满的一种方式。  

追求那些本身就是目的的活动,使我们成为更好的人类,包括工作、朋友和家人。家庭和朋友正在减少,而人工智能将改变工作,不太可能变得更好。人工智能会为这些提供足够的替代品,或解决它引起的心理健康危机吗?这似乎也不太可能。它引起的问题似乎与其操作方式有内在联系。  

人工智能可能没有引发所有这些衰退,但它肯定在加速这些衰退。最好的补救措施,也是我所知道的唯一能够真正解决这些问题的补救措施,是教育,一种特殊的教育。那就是自由教育,在这种教育中,学生学习最深思熟虑的著作,了解世界和自己,培养自己的心智,使其配得上“自由”这个词。  

在小学和中学,学生可以为这种教育做准备,这种教育可以在高中开始,并在大学认真进行。但情况如何呢?没有基本技能,自由教育甚至无法开始。然而,根据《华盛顿邮报》2023年6月28日的一篇文章,只有13%的八年级学生达到了美国历史熟练标准,“这是有记录以来的最低水平”,31%的学生在阅读方面熟练,26%在数学方面熟练。  

一旦学生进入大学,即使他们具备基本技能,他们也会发现一片平庸的沙漠,只有少数罕见的绿洲。如今,几乎找不到教授自由教育的教师。人工智能会解决这些问题吗?我看不出如何解决,特别是因为人工智能倾向于一致性。  

由没有接受过自由教育的非常聪明的人运营的人工智能公司可能会试图通过人工智能来解决衰退的统计数据。但他们可能会怎么做呢?如果生成式人工智能可以有效地进行阅读和数学,为什么不直接教学生如何使用生成式人工智能呢?这似乎是最可能的结果。  

但生成式人工智能根据其制造者的偏见产生输出。如果我们的教师的思维已经如此一致,想象一下,如果400万名教师被几个机器人取代。随着人工智能生成的教育集中化,精英的权力将继续增加,他们希望管理国家的其他人,并能够使用越来越强大的工具来做到这一点。  

我们其他人将继续越来越分心,因此我们将学得越来越少,即使我们变得越来越依赖人工智能。培养心智所需的安静和孤独时间将消散。精英们将使用人工智能来推广他们认为正确的任何政治,但没有经过深思熟虑的教育或他们所做事情的后果,他们将吸收任何时髦的东西,并将这些趋势固定到他们的算法中。  

他们将尝试用算法来改善世界,使用他们未经反思的“更好”观点,并将其灌输给我们。他们将促进两种不良品质:道德愤怒和道德优越感。在不断的分心、降低的期望和通过人工智能进行的灌输之间,年轻人将变得越来越不自给自足,越来越不知道如何好好利用他们的时间。  

人工智能处理的是平均水平或平庸。它在大量数据上进行“训练”,使得最终模型最适合这些数据。它在少量数据上效果不佳,因此不适合罕见或高级的事物。最终轨迹是大众的一致性和精英生产人工智能的一致性。  

我是否认为这一切是不可避免的?并非如此。我们可以继续增加人工智能的使用,以运行我们的关键系统,如能源网和国防,以增强医学,甚至学习,同时拒绝放弃人类的干预和决策。我们可以改革我们的学校和大学,专注于自由教育,我们可以作为一个社会促进自由和深思熟虑。  

如果我们这样做,人工智能可以用来增强人类繁荣,但这将是尽管人工智能,而不是因为人工智能。  

三、评论与回应

Flagg Taylor(主持人):Brendan,你对Bernhardt提出的观点有什么回应吗?  

McCORD:是的,谢谢。我的问题是——然后我想更深入地谈谈智能——你一开始谈到了一些近期的危害(Jonathan Haidt 的研究揭示了一个例子)。对此的回应是,人类已经从狩猎采集社会适应了农业,再到城市化。这些大规模的、多方面的变化在早期阶段远非易事。为什么现在发生的事情不是另一个例子,即我们在短期内遇到困难,但中期收益是巨大的?  

在社交媒体和 Twitter 的案例中,好处是否可能是连接和增强非常聪明的人的网络,产生复合效应和协同效应,从而在我们能够衡量表现的领域——除了拼写,你提到了——我们几乎在每一个领域都比我们的祖先做得更好?我认为这种好处尤其体现在贫困国家的聪明孩子身上。那么,为什么这不是另一个例子,即我们在历史上已经适应了某些东西?  

TROUT:你提到了印刷机的例子,这是一个巨大的创新。印刷机前后的区别在于,在印刷机之前,很少有人能够接触到思想和著作。只有极少数人属于那个精英群体。因此,印刷机在某种程度上实现了思想的民主化。  

现在的区别不是信息的缺乏,而是信息过多,我们不得不花费所有精力来筛选这些信息。我认为最好的方法是关掉电脑,关掉智能手机。解决方案不在于人工智能,因为从本质上讲,它制造了一个它自己无法解决的问题。  

McCORD:我想提出的更广泛的观点是关于人工智能是什么或不是什么。我可能会不准确地复述,但你说人工智能无法定义目的,它必须由人类编程,它不是智能的,它是被拟人化的。  

在最后一点上,我同意你的观点。有一篇有趣的论文讨论了语言如何以限制性的方式附着于概念,论文主张我们应该像豪尔赫·路易斯·博尔赫斯这样的魔幻现实主义作家学习,他们毫不费力地扩展了词汇表。通过神的运动来理解天气模式只能走这么远;我们使用我们可用的东西,但这只能走这么远——我们必须超越它们。所以我同意这一点。  

但在目的和智能的问题上:我没有一个充分的智能定义,但它与形成抽象、对思想和感知进行语义解释的能力有关。不仅仅是这些,但我认为这是其中的一部分。  

你提到人工智能是一种特定的抽象器,能够生成高度精细的抽象。我几周前从 Anthropic 的 Dario Amodei 那里听到的一个例子是:即使是当前一代的模型,也非常擅长进行30位数的加法。训练集中没有很多关于30位数加法的数据;人们不经常进行30位数的加法。他们认为模型内部的电路似乎在实现加法算法。它找到了一种更简洁的解决问题的方式,从而开发出另一种抽象。  

所以这是一个例子——一个玩具例子——说明一种能够找到自己替代抽象的抽象。这似乎是一种初级的智能。智能似乎是一种涌现的系统级属性。你描述了细胞;神经元中的蛋白质、离子以复杂的方式相互作用,产生三维的电和化学活动。人类心智的特性是这些复杂相互作用的结果。问题是,人工智能能否具有这种涌现性?  

你在讨论人工智能是什么时,提到了人工与自然的二元性。我对某物是否涌现的测试是:你是否可以将该物的能力计算为编程元素的总和或平均值?如果可以,那么它不是涌现的;如果你可以通过分析因果链来确定结果和能力,那么它不是涌现的。但如果能力敏感地依赖于原始编程的某些特征,并且如果最终秩序不依赖于特定的因果链,并且如果它在局部扰动下是稳健的——你可以移除各个部分,发现智能或涌现属性并不存在于这些部分中——那么它就是涌现的。  

回到亚里士多德,他在《形而上学》中区分了自然物质和人工物,自然物质具有内在的运动源,内在的目的论,而人工物具有由工匠的技术专长外在强加的运动或目的。他说,自然源于内在原则,而人工源于理性的强加,源于物质的形式。  

当我阅读《形而上学》时,他似乎暗示了第三种事物的生成方式,与自然和技艺并列。他似乎说,事物可以通过偶然或运气生成,就像自然生成一样,但没有种子。这扇门被打开,通向一种超越其作为外部技艺产物的形而上学地位的人工物,开始表现出自己的内在变化原则,就像自然物质一样。因此,它是一种由自运动物质组成的人工物。  

人类有一种不可否认的倾向,即倾向于刻意创造一种安排,以产生涌现行为,但我确实认为人工智能系统的本质——尤其是如果我们让自己想象它们未来可能是什么——似乎既在于它们的动态生成,也在于它们的原始构成。是的,原始编程来自人类。但所发展的——产生的抽象,加法算法的发现,或者目的在过程中被修改(如果人工物被编码为能够做到这一点)——这似乎偏离了作者的意图,使得本质实际上是分离的。  

TAYLOR:我想暂停一下,指出人工智能的未来可能取决于对亚里士多德《形而上学》的正确解释。赶紧回家把书拿出来!  

TROUT:当你谈到涌现时,我想提出两点。首先,我已经有大约10年没有研究《形而上学》了,但我认为你所说的自发性,即第三种方式,是指他用“apo tou automatou”这个词,这基本上只是偶然的另一种说法,与运气相对。我认为这里的解读并不是说某物可以自发涌现,并有效地成为一种具有自身内在运动源的自然存在。我认为这只是指在自然界中,某物偶然涌现:比如一座特定的山涌现,或者在新罕布什尔州我住的地方附近有一个被称为“山中老人”的岩石构造,虽然它已经倒塌了,但它看起来像一个人——这就是亚里士多德所说的自发涌现的意思。  

我想谈谈你的另一个观点,这是问题的核心。你提到了神经元,然后是所有细胞和神经元,它们如何分化、聚集和形成,你认为这就是思考的本质。我不同意这一点。我认为存在自然的整体,比如人类或我们每个人。你可以通过还原论的方法将我们还原为神经元、细胞,但为什么不直接还原为原子或电子、质子和中子呢?  

这些都是特定类型的抽象——正是我之前讨论的那种模型。它们可能不是严格意义上的数学,但它们与这些数学抽象非常相关。因此,如果你说人类只是神经元和其他细胞,或者也许不仅仅是这些,因为某种东西涌现了,那么我同意你缩小了人工智能算法与作为自然整体的人类之间的差距。但你并没有必然将人工智能提升为智能,而是将人类还原为某种实际上不是智能的东西——某种仅仅是物质的东西。  

TAYLOR:让我问 Bernhardt 一个问题,我也会问你一个类似的问题,Brendan。你能想到一个离散的人工智能应用,它实际上运作良好,在某种意义上对人类有益,并且没有引入你讨论的问题吗?这个特定的案例能否解释我们如何培育一个可以积极使用人工智能的未来?  

TROUT:当然。在健康方面,药物开发。使用拟人化术语解释医学结果并得出结论。是的,如果我们可以将其应用于应该应用的领域,人工智能是科学的产物,它适用于科学。它非常适用于科学的进步,特别是在进步领域。我认为在依赖它进行人类互动、连接人们方面,它往往是好的,但它似乎有导致我之前提到的不利结果的趋势。  

TAYLOR:Brendan,对你来说,反问题是你是否有一个离散的人工智能例子,它让你感到困扰,我们需要更好地管理它,以便朝着你描绘的更积极的场景发展,而不是消极的场景?  

McCORD:我会在这里给出两个答案。第一个并不是我深感困扰的,但我认为这是当前系统的一个关键限制。它与知识创造和自动化我们已经知道的东西之间的区别有关。例如,我们在癌症检测中使用人工智能。这很有帮助——我并不反对这样做!但我认为,有可能使用人工智能来扩展我们对癌症的了解。在我的类比中,我会说飞机和电子显微镜并没有自动化飞行或观察亚原子粒子;我们之前只是没有做这些事情。  

所以问题是:我们是否需要将技术限制在自动化我们已经知道的东西上,或者我们是否能够赋予技术一些特征,使其能够进行知识创造?我的观点是,今天我们无法进行科学发现所需的推理,相反,人工智能进行常识推理,作为一种全面的生成式常识判断库。我认为它并不足以进行开放式科学或值得信赖的助手和导师所需的推理,也不能稳健地尊重道德约束。所以这是一个问题。  

另一个问题是关于我担心的方面,我和 Bernhardt 一样,担心人类生活的扁平化。我担心同质化的观点。这可能是由于数十亿人的注意力被推荐系统所分配,而这些系统往往以广告点击或多巴胺反应为导向,并且由少数几家公司控制。  

在我的论述中,我试图提出一种模型,其中“超级心智”不是一种单一实体,试图将所有资源用于生产回形针,也不是试图编码一种由单一目标主导的社会福利函数。相反,它是一种在基础中内置了价值多元化的超级心智,从而保护并促进知识自主性的增长。因此,我认为这是一个有害的趋势,我希望能够通过“哲学到代码”的管道来探索解决方案,或通过实验来进一步了解这个问题。  

Madushi Raththagala(主持人):我听了你们的开场陈述,讨论了人工智能系统如何处理信息、学习以及采取立场。但我觉得你们并没有谈到人工智能系统缺乏意识或自我意识。所以我的问题是,通过机器学习或神经网络,你们能否让人工智能系统具有意识?如果可以,这是否是监管人工智能系统的更好方式?  

McCORD:我对意识的本质没有足够深入的理解。创造能够稳健地尊重道德考虑的人工智能系统是明智的。我认为这是我希望我四岁的女儿与之互动的系统——能够做到这一点的系统。至于是否将人工智能系统归类为道德主体作为一种监管方式——这是一个有趣的问题。我不确定我是否有好的答案。  

RATHTHAGALA:你谈到了人工智能的偏见,对吧?如果你想让人工智能的使用与人类利益保持一致,你是否可以改变人工智能系统,使其更具意识?这是否与监管系统相同?  

TROUT:如果它是一个人类的模型,人类往往并不自我调节。因此,我认为我解释了为什么我没有谈论意识。如果我们只是数学对象,假设你可以用数学描述我们,那么我认为意识可以被建模。因此,我认为最好的情况是,这些人工智能机器人会模仿自我意识,模仿意识,并根据它们的编程来调整社会。  

即使在未来出现了某种意想不到的涌现——我同意你的观点,你可以找到这样的涌现,你可以说这些实体涌现了——如果这是真的,我并不是说这是真的,我认为有充分的理由认为这不会发生,但即使这是真的,会发生什么?公司会生产看起来像人类、行为像人类的机器人。  

让我们想象一下最好的情况:每个机器人都比任何真实的人类更令人印象深刻。在我看来,最终的结果是我们每个人都会把所有时间花在这些机器人身上。即使一切完美运行,这些机器人也会成为比你们这里的老师更出色的老师,比你们所有的朋友更出色的朋友,比任何人都更出色。在这种情况下,我们不一定因为机器人而灭绝,而是因为我们不再需要人类。我们会把所有时间花在机器人身上,然后消失,最终只剩下机器人自己。  

McCORD:我同意 Bernhardt 的观点。卢梭有一个关于“自爱”(amour-propre)的概念。它与我们在他人身上寻求的自我认可有关。我们不会从电视或汽车中寻求这种认可(大多数人不会……),但在人工智能系统的情况下,我们可能会体验到这种对认可的渴望。人类并不知道如何在这种社会中航行。  

我的回应是承认这是一个在世界历史意义上具有挑战性的新问题,但同时强调,唯一的出路似乎是强调自由教育或个体的自主性——赋予个体足够的资源,使其能够思考这些问题,并拥有一个能够抵御人工智能男友或女友的基础自我。  

我还认为,开发人工智能的方式可以更少地关注复制虚拟男友或女友,而是更多地尝试在代理之间(无论是人工智能还是人类)培养更好的互动和相互调整。  

四、观众问答

问题1:人工智能艺术是“真正的”艺术吗?我的问题是针对你们两位的。这个问题出现是因为我热爱艺术,而虚拟和人工智能创作的艺术越来越受欢迎。问题是,人工智能创作的艺术是“真正的”艺术吗?  

McCORD:这很有趣;这是一个我想进一步思考的领域。我知道尼采在《快乐的科学》中有一句格言,谈到我们欠艺术家什么,或者我们应该给予艺术家什么。这是宇宙研究所在即将于今年春天在牛津教授的课程中正在研究的内容。我们将有一个关于创造力的部分。但我还不能说我对这个问题思考了很多。  

我可能没有纯粹主义者对艺术的定义。我不认为艺术必须具有教育意义。我不认为艺术必须是稀缺的。我有时会购买版画。我并不总是购买印刷品,但我接受复制品作为艺术。我对艺术采取个人化的态度,也许这意味着我没有一个总体的纯度测试。因此,我倾向于认为,人工智能艺术是艺术。  

所有的艺术潮流——无论是安迪·沃霍尔将坎贝尔汤罐作为艺术品,还是波洛克表现出的平面性和运动性——都是与之前艺术形式不同的运动,但同时又保留了许多本质。如果你是一个火星人,你会看到这些艺术之间的共同线索,即使它们试图将自己表现为反叛者。我认为我们将体验到这种我们认为艺术的线索的酷炫组合。我们将能够回顾并说,波洛克、沃霍尔、米开朗基罗之间实际上有一条线索,但它将是不同的、反叛的和新的。  

我认为未来由于边际成本明显降低,市场成本也在大幅下降,因此可能会有更多的垃圾艺术。这可能会为那些成为下一个《世界报》的人创造力量,巴黎的“右岸”将变得重要,因为我们可能会寻求专业知识来帮助我们筛选这些艺术。这就是我目前对它的思考。  

TROUT:我想回到模拟与现实的问题。我很想有一个模拟的观众,每个人都一直笑我的笑话,但我更希望你们是真实的人,当你们笑的时候,那是真实的,而不是 Brendan 提到的自爱,或者是为了获得这种关注的手段。  

我认为艺术也是如此,因为人工智能生成的艺术缺少的是——我排除了人工智能生成的艺术实际上是由艺术家完成的可能性,而不是由程序员通过某种数据库生成的,因此它纯粹是模拟的产物。区别在于,艺术或艺术家是某种生活。这位艺术家做出了决定,并培养自己朝着某种生活类型发展,这可能导致艺术成为内在关注的外在产物。如果它是由人类完成的,它就具有那种现实性。  

这是亚里士多德提到的那些本身就是目的的活动之一,因此它是内在的。如果它是纯粹的模拟艺术,所有这些都被移除了,我认为它确实有影响。这并不意味着我们不会被欺骗,最终生活在欺骗中,但这正是我之前所说的不良结果。  

问题2:我们的人工智能时刻的危害有什么独特之处?我特别想问 Trout 教授。你谈到了人工智能的弊端和人工智能在我们社会中的影响,特别是关于价值观的变化。例如,它已经在削弱人类,比如通过社交媒体和浪费在设备上的时间导致的心理健康问题,这增强了精英的权力。我在你提到的例子中一直在思考的是,这些系统和这些退化在历史上一直存在。古罗马人引入蜡板代替纸草时,有人抗议说这是对我们书写系统的退化,为什么要这样做?  

精英的权力在历史上一直存在。他们通过各种方式控制大众:以前他们使用印刷机,然后他们使用微妙的社会影响。我不知道你是否能构建一个没有飞行员的社会。那么,这种人工智能与历史上任何其他灾难性事件有什么不同?我们是否只是进入了一种不同风味的人类形态?  

有一些我们珍视的价值观,我们对这些价值观的变化感到不安,也许我们现在正进入一个由多巴胺点击等主导的新时代。但在一千年后,这将再次改变,我们将有一种不同风味的人类形态。所以——我不会说这一定是坏事——但我有兴趣听听你的想法?  

TROUT:如果它能被适当地使用,它不一定是坏事——但区别在于,根据卢梭的说法,技术导致越来越多的自爱。但我想说,这里的区别在于,人工智能作为一种技术,假定自己是全面性的。它涉及每一个方面,我们提到了几个,当然是经济、健康、政治、语言、艺术。因此,它是全面性的——这就是区别。  

关于这个问题,亨利·基辛格在《大西洋月刊》上写了一篇最好的文章,题为《启蒙运动如何终结》。启蒙运动项目释放了科学和技术,为人类造福,但如果它变得全面性,那么它可能导致终结。  

McCORD:如果我可以补充一点,我会说 Bernhardt 提出的这些风险很少被提及。通常当我们谈论人工智能的风险时,我们指的是灾难性风险,即人工智能会杀死我们所有人。这是从业者社区中一种主导的方法,通过狭隘的功利主义视角来看待风险问题。狭隘的功利主义视角忽略了道德问题的深刻微妙性,包括一些道德问题中固有的东西。它之所以这样做,部分是因为这种思维方式很容易映射到优化技术上。  

我的意思是,那些非常数学化、思考用符号征服世界的人,倾向于将所有的道德问题简化为单一货币,即效用,然后使用概率分布等进行计算。  

为什么存在一种潜在的风险,而不仅仅是每一代人都感受到的某种悲观可能性的新风味?这可能与“我们首先塑造我们的技术,然后技术塑造我们”这一理念有关。它可能塑造我们接受狭隘的功利主义目标为不言自明的(因为你的信息来自本身以这种方式优化的人工智能系统)。如果有一种微妙的转变,你不再意识到更大的问题仍然存在,那么你就被锁定在这种更狭隘的思维方式中。它缩小了你的言论,缩小了你的思想。这是一个问题。  

我两个月前在圣菲研究所,有一位研究人员研究了在东西柏林不同范式下长大的老年人——在 COVID 期间,他们如何响应当局的封锁指导?他们的反应截然不同:那些在前控制政权下生活的人更加顺从。你习惯的行为方式对你愿意容忍的政府类型有很大影响。如果你有一个被削弱的人民,他们接受了这种更狭隘的功利主义形式,我担心他们会接受更多的功利主义,并继续下去。因此,我对我们今天的处境并不悲观,但我确实认为,如果我们不积极反对,这种系统会朝着那个方向发展。  

TAYLOR:Brendan 非常随意地提到了“人工智能会杀死我们所有人”的情景。也许我们应该讨论一下!还有其他问题吗?  

问题3:人工智能是否真的创造或维护了一种同质化的观点?你提到了社会的扁平化或知识的扁平化,但这种说法可能过于简单。我困惑的是,这些人工智能系统是在数十亿份文档和历史数据上训练的,它当然是回顾性的。当这种扁平化发生时,普通人怎么可能不欣赏和学习这数十亿份文档中的内容呢?如果它是在数十亿条信息和语言上训练的,这些信息和语言是我们生活的一部分,它怎么可能变得扁平化?  

McCORD:你说:它已经在大量不同的观点上进行了训练,因此它不应该反映普遍人类的多样性吗?它不应该是一种终极的密尔式多样性引擎吗?我会说,这根本不是它的运作方式。我认为这是一个有趣的理论,即我们在语料库中培养了一种人工智能,它实际上呈现了他人的观点。如果我在 Twitter 上看到一个观点,然后看到另一个观点,我会非常喜欢。社区笔记提供了一个观点,即社区对虚假信息的看法。有一点这样的东西,但我希望听到更多关于那些不是那么真假或事实与垃圾的问题的不同理性观点。  

实际上发生的是,算法被构建成看似中立的立场,但它实际上是一种同质化的立场。因此,它取代了看似中立的仲裁者,而它实际上是同质化的。你可以通过提问来揭示这一点:你可以问,资本主义的危害是什么?你会得到一个非常详细、精细、充满顾虑的答案,说明资本主义的问题。如果你问GC主义的问题,你几乎会在每个人工智能系统上得到一个答案:“你应该认真思考,真正的GC主义还没有被实施。它实际上可能并不那么糟糕。”它不是一个中立的仲裁者,更重要的是,它不是一个多样化的仲裁者——它不允许并培养分歧。  

托克维尔会说,这样的系统特别危险,因为我们变得对它们奴性,这削弱了形成独立判断所需的灵魂力量。我们也停止表达对社会真理和进步至关重要的多样性。  

TROUT:我想补充一个数学观点,或者至少是一些数学术语。我认为 Brendan 很好地解释了学习点,但这里是数学观点。你正在训练一个巨大的数学模型,并在这些数十亿份文档上进行训练。你所做的是最小化训练集和模型之间的差异。换句话说,你正在调整参数以最小化这种差异。在这数十亿份文档中,最好的100份甚至1000份文档只是被抹平了。  

问题4:我们应该如何应对工作流失?我们如何培养真正的个性?这也是针对你们两位的问题。人工智能非常强大和有用——我们都从中受益匪浅,它涵盖了从科学研究到艺术和经济分析的方方面面。但与此同时,人们也因其强大的影响而受到负面影响,比如人们因为工作可以被人工智能取代而失去工作。你们认为我们作为一个社会应该如何适应这个人工智能时代?你们认为我们应该如何适应这个关键的过渡期?此外,我们这一代人或当今的普通大众应该如何通过教育发展成为能够在强大的人工智能时代快乐生存的个体?我知道有一些机器人可以看起来像真实的人类,并植入人工智能系统,那么我们在10年、20年后如何成为与众不同的人类?  

TAYLOR:核心问题似乎是,在人工智能时代,你如何保持一个真正的人类,以及我们作为一个社会应该如何适应这个暂时的功能失调的过渡期?  

TROUT:我认为之前提问的学生已经离开了,但我想说几点。关于【问题4】提到的这种转变,关于工作和职业,这是否只是另一种大规模的技术颠覆?可能是的。我认为如果你只谈论工作,在自发性秩序中,新需求、新类型的工作将会涌现——它们不是旧的工作。我并不太担心这一点。  

我希望不会发生的是,这成为一个借口。我在 MIT 经济学系的许多同事提议,政府应该介入并开始培训人们创造所有这些工作,因为他们可能会预测错误,我们最终会陷入更糟糕的境地。然后我的答案是我之前所说的:尽可能多地花时间——你必须休息和做其他事情,但——思考和学习,并培养自己。这是使我们作为人类独特的东西,超越思想。人工智能无法思考,无法培养自己,无法理解本身就是目的的活动。这就是我会做的。如果你在这里是学生,那么抓住这个机会,尤其是在你不必担心其他各种事情的时候。  

TAYLOR:Brendan,你想补充什么吗?  

McCORD:我会说,在深刻变革的时代,我认为在社会层面,拥有一个学习型和适应性的系统,并为其探索性微调做好准备,就像迭代算法那样,是非常有帮助的。拥有一个为历史某一时刻优化的固定集中系统将是灾难性的。因此,我认为你需要一个能够有机增长和演变的系统,以便你能够吸收人工智能带来的好处,并在过程中学习。  

另外,我想说的是,要反对集中化,这样我们不会变得更加狭隘和依赖中央权威。我们讨论了很多关于这一点的问题。  

最后一点是关于教育的。凯恩斯在1930年写过一篇关于孙辈机会的论文,假设到我们的孙辈活着的时候,我们可能已经解决了经济问题。无论这是否正确——他是否以正确的方式定义了这一点还有待讨论——他说,如果我们解决了经济问题并创造了一个没有稀缺的社会,我们仍然面临着如何明智、愉快和美好地生活的问题。我认为这是对的。我认为这将成为哲学的空间。我们如何利用我们的工具来明智、愉快和美好地生活?这是我敦促人们思考的问题。我敦促他们回到哲学史中去思考——不要只看过去10年写的东西。看看那些在技术主导现代项目之前就深刻思考过美好生活的人。  

对于整个社会,我认为需要在教育方面进行更多实验,以增强人们的能力,赋予他们自由教育的一些好处——人工智能可以成为大规模教育的武器。我们才刚刚开始触及它帮助增强个体的潜力。  

TAYLOR:非常感谢。这是一个很好的结束点。Brendan 和 Bernhardt,非常感谢你们来到斯基德莫尔,也感谢大家的参与。  

参考资料:
 

1. Jordan, M. I. (2019). "Dr. AI or: How I Learned to Stop Worrying and Love Economics." Harvard Data Science Review, 1(1). https://doi.org/10.1162/99608f92.b9006d09.  

2. Thomas Malone 著作《Superminds: The Surprising Power of People and Computers Thinking Together》的第九章。  

3. Jordan, M. I. (2019). Artificial Intelligence-The Revolution Hasn't Happened Yet. Harvard Data Science Review, 1(1). https://doi.org/10.1162/99608f92.f06c6e61.

注:观点代表作者自己,译文仅供研究参考

话题:



0

推荐

科斯学社

科斯学社

239篇文章 3小时前更新

路乾,中央财经大学经济学副教授,美国马里兰大学经济学博士

文章