加入时间:2024-06-25 09:34 访问量:1107 信息来源: 南风窗 2024年13期
最近技术专家们互相询问:“你的p值(对人工智能毁灭人类概率的估算)是多少?”答案可能因时而异。不过在0到100的范围内选择的确切数字并不重要,重要的是根本问题:你对人工智能究竟有多悲观?
2023年3月,1000多名技术研究人员和企业高管签署了一封被称为“暂停”的信,呼吁所有人工智能实验室暂停“训练比GPT-4更强大的人工智能系统”至少六个月。签名者包括人工智能先驱约书亚·本吉奥、经济学家达伦·阿斯莫格鲁和科技界亿万富翁埃隆·马斯克。这是一个不应被忽视的群体,但就我所知他们却遭到了无视。
在暂停信上签名的专家们遵守的是预防性原则,但每存在一位强调谨慎的专家都会有对应的另一些人主张快速发展人工智能技术。毕竟十多年来,包括我在内的许多经济学家都目睹了初创企业将令人叫绝的人工智能技术推向市场。在癌症检测、安全系统、协助残疾人的工具、扩大教育机会的指导教师以及提高老年人行动能力的自动驾驶车辆方面,人工智能都取得了突破性进展。
暂停只会延误这些好处。因此虽然暂停可能确实是明智之举,但我们应该确保我们对潜在危害的担忧不仅仅是基于猜测。
为了帮助确定对人工智能的担忧是否合理,我们应该了解这些担忧的来源。首先是历史经验。大多数新技术既有好处,也有代价,有时代价还大于好处。比如,小托马斯·米奇利发明了四乙基铅,这种汽油添加剂可以减少发动机爆震并显著提高汽车可靠性;他还发明了氟利昂这种关键制冷化学物质。但他的发明催生了铅中毒症状,并产生出破坏臭氧层的氟氯化碳,最终这两种物质都被禁止使用。
在2023年出版的《权力与进步》一书中,阿西莫格鲁和西蒙·约翰逊认为上述后果往往是常态。因此,尽管经济学家普遍认为大多数新技术最终都是利大于弊,但也有人认为人工智能是一系列潜在危险技术中的最新一种—这些技术在人们还没有充分认识到其可能带来的代价之前就被应用了。
人们对人工智能的第二个担忧是,它确实存在各种可识别的危害。针对这些系统如何被训练的问题已经发生了一些冲突,比如《纽约时报》就以涉嫌侵犯版权为由起诉OpenAI和微软。一些创新者已经明确表示,他们的目标是用人工智能取代工人,而学生已经在使用大型语言模型来完成考试和作业了。
除了扰乱教育和工作场所,人工智能还被用于监视公民、通过换脸冒充他人以及增强武器作战能力。人们也有理由担心已经拥有大量数据的现有企业会强化其市场势力。这些可识别的危害,可与技术的益处进行权衡,必要时可以通过监管来解决,或者像含铅汽油和氟利昂那样直接被禁。
这又回到了第三个担忧的根源:新技术的许多后果都是意料之外和不可预见的,人工智能很可能也是如此。例如,现在人们普遍担心社交媒体会损害儿童的心理健康。但关键之处在于这些平台无处不在,因此并不存在简单的监管解决方案。
那些意想不到的后果往往难以逆转的状况本身就是个问题,而它似乎在迫使人们在要不要人工智能之间做出非此即彼的选择。但这是一个错误的两难选择。事实上这意味着我们应该对人工智能进行更多的小规模试验,以便及时识别潜在的危害。我们还应设法使人工智能的应用更具可逆性,而这或许会涉及制度和基础设施改革。这将在人工智能产生不受欢迎的副作用时,为实际损害提供更大程度的保险,同时确保社会能够从中获益。