作者:Pierre Lemieux
日期:2023年5月6日
历史学家、哲学家、耶路撒冷希伯来大学讲师尤瓦尔・诺亚・赫拉利在《经济学人》上发表了一篇关于人工智能的有趣文章(“Yuval Noah Harari Argues that AI Has Hacked the Operating System of Human Civilization”,2023年4月28日)。他对人工智能危险的论述比通常的勒德分子式恐慌(Luddite scare)更为复杂。以下是一些摘录:
别再想学校的论文了。想想2024年的下一届美国总统竞选,试着想象一下人工智能工具的影响,这些工具可以被用来大规模生产政治内容、假新闻故事和新邪教的经文……
据我们所知,之前所有的信息发布都是由人类撰写的,机器人只是帮助传播它们,但在未来,我们可能会看到历史上第一个其崇敬的文本是由非人类智能撰写的邪教……
我们花时间试图改变一个人工智能机器人的既定观点是完全没有意义的,而人工智能却可以如此精确地打磨它的信息,以至于很有可能影响我们。
通过对语言的掌握,人工智能甚至可以与人建立亲密关系,并利用这种亲密的力量改变我们的观点和世界观……
当人工智能接管文化,开始创作故事、旋律、法律和宗教时,历史的进程将会发生什么?……
如果我们不小心,我们可能会被困在一层幻觉的帷幕后面,我们无法撕开它——甚至意识不到它的存在……
就像制药公司在测试新药的短期和长期副作用之前不能推出新药一样,科技公司在确保新人工智能工具安全之前也不应该推出它们。我们需要一个新技术的食品药品监督管理局。
最后一点当然不是他最有趣的观点:在我看来,这像是令人担忧的人工智能机器人宣传。这种对国家的信任让我想起了新政拥护者雷克斯福德・盖伊・塔格威尔在1932年《美国经济评论》上的一篇文章中所写的:
新产业不会像汽车产业那样自然发生;在涉足之前,它们必须被预见、被论证,必须看起来在整个经济中具有可能可取的特征。
我们不知道人工智能会在多大程度上接近人类智能。赫拉利可能从未听说过的弗里德里希·哈耶克认为,“心智与文化是同时发展的,而不是先后发展的”(出自他的Law, Legislation, and Liberty的结语;他加了下划线)。这个过程花了几十万年,而且正如彼得・纳瓦罗所说,人工智能不太可能在 “特朗普时间” 内取得进展。我们所知的人工智能的改进需要大量资源。ChatGPT-4的训练可能花费了1亿美元,消耗了大量的计算能力和电力。而且成本的增长速度比智能的提升速度更快。(见Large, Creative AI Models Will Transform Lives and Labour Markets,《经济学人》,2023年4月22日)我认为,除了抄袭这位法国哲学家,人工智能永远不会像笛卡尔那样说 “我思,故我在”(cogito, ergo sum)。
以下是我从赫拉利的论点中会保留或推断出的内容。人们可以将人类的思想史看作是一场发现宇宙奥秘的竞赛,包括最近创造出类似智能的东西,同时也是一场教育竞赛,这样大多数人就不会成为江湖骗子和暴君的受害者。就人工智能确实接近人类智能或话语的程度而言,问题在于到那时人类是否在智力上足够精明,不会被机器人或利用它们的暴君欺骗和控制。如果第一场竞赛在第二场之前获胜,人类的未来确实会很黯淡。
大约15%的美国选民认为有“确凿证据”表明2020年的选举被窃取了,尽管这个比例似乎在下降。在整个发达国家,甚至更多的人相信“社会正义”,更不用说世界其他地方,还处于更原始的部落主义的控制之下。赫拉利认为人类可能会像贪吃者被诱饵欺骗一样被人工智能机器人欺骗的想法很有趣。
在过去一个世纪左右,古典自由主义逐渐被摒弃,21世纪似乎正在降临的知识黑暗,以及民粹主义领导人(“民主”之王)的崛起,表明创造新神的竞赛比普及教育、知识和智慧的竞赛获得了更多的动力。如果这是真的,正如赫拉利所担心的,一个真正的问题正在逼近。然而,他表面上的解决方案,即让国家(以及其铁腕人物)控制人工智能,是基于一种悲剧性的错觉,即国家会保护人们免受机器人的侵害,而不是利用机器人对付不听话的个人。如果人工智能是自由的,并且可以在个人、企业、(分散的)政府和其他机构之间共享,风险肯定会低得多。
注:观点代表作者自己,译文仅供研究参考。更多内容请点击阅读原文
0
推荐