综合来看,AI在岗位取代方面突破历史规律的潜在后果可能是:社会适应能力的崩溃。 如果失业潮来得太快、范围太广,而新岗位无法及时填补空缺,教育与再培训体系又跟不上节奏,那么人类社会可能陷入长期的高失业率、经济停滞甚至社会不稳定。
此外,AI对人类智力和创造力的挑战可能动摇社会结构的基础,导致伦理、法律和治理体系的全面重构需求,而这些调整的复杂性可能也是当前社会机制所难以承受之重。
而与此同时,面对AI可能对产业结构带来的如此巨大冲击,人类尚没有拿出可行的应对方案。
全球都在聚焦「AI会毁灭人类吗?」很多专家都认为这取决于人类如何解决伦理困境。 自从核武器出现以后,毁灭的危机始终像一道阴影一样深深刻在人类心头。 地球上现在有上万件核武器,掌握在9个国家之手。 截至目前人类还没有爆发核战争,是因为人类依然能理性地掌控核武器,但是超级人工智能诞生后,这个局面会改变吗?
通用人工智能AGI是AI的最终发展方向。 这种人工智能的特征是能够在无需人工干预的情况下自我改进,具有高度的智慧,一些学者称之为超级智能(即远超人类智能的AI)。
2023年3月,在OpenAI推出ChatGPT 4.0版本后,美国加州大学圣塔芭芭拉分校学者、研究哲学和神经科学的塔姆林‧杭特(Tamlyn Hunt)在「科学美国人网站」撰文表示,随着AI飞速发展,预计很快就会实现「通用人工智能」。
杭特认为,一旦人工智能发展到超越人类的阶段,如果它决定毁灭人类,人类将无法反抗。 因为人类试图建立的任何防御或保护措施,都会被其轻易预料到并被消除,这种超级智能的思考速度比人类快一百万倍,人类无法控制它们。
对于人工智能出现的技术奇点和智能爆炸模型的学术讨论,早在1960年代就已经开始,1980年代的电影《终结者》将这种生存担忧搬上银幕。
随着21世纪互联网和AI技术的发展,人工智能逐步走入实际应用领域,超级智能构成的威胁也更为学者关注,比较著名的有牛津大学哲学教授尼克‧博斯特罗姆(Nick Bostrom)2014年出版的畅销书《超级智能:路径、危险、战略》。
博斯特罗姆在《超级智能》一书中,不仅对发展人工智能的风险进行了深入探讨,还提出一些潜在的解决方案,如发展人工智能的伦理体系,以防止不可控的风险。 博斯特罗姆的解决方案围绕一个核心理念:我们可能无法阻止超级智能的到来,但可以通过深思熟虑的设计和准备,将其转化为人类的助力而非威胁。
博斯特罗姆强调了价值对齐(value alignment)的重要性,即让超级智能理解并尊重人类价值观。
他提出的一个潜在解决方案是,在超级智能的初始设计中植入与人类兼容的目标,使其优先学习和内化人类的道德和伦理原则。 只有人工智能学会重视人类和人类最珍视的事物,人类才可能真正享受这项技术带来的好处。
博斯特罗姆认为,应该放缓AI能力开发的步伐,将更多精力转向安全研究,而不是单纯追求AI性能的提升。 他主张促成跨学科的合作,召集哲学家、计算机科学家、伦理学家等共同解决AI的价值对齐问题,以避免技术发展失控。
博斯特罗姆的观点代表了AI伦理的业界共识。 但是该给AI设定什么样的伦理呢? 这就涉及到人类社会自身的伦理问题。
人类对伦理的理解分成两派,先天伦理和后天伦理。 前者认为伦理、道德来自于超越人类的神和天道,是神为人类设定的生存规范,因此伦理和道德的标准具有永恒性; 而后者则认为伦理是一种人为设定的公共规范,来自于传统、习俗和权力结构,因而伦理具有相对性。
如果人类为AI设定先天伦理,让AI学习天道和信仰体系的伦理概念,那么,AI也许会遵守神的旨意,具有恒定的善恶和伦理判断标准。 例如,AI可能被编程为遵循「十诫」或儒家「仁义礼智信」等永恒原则。 这样AI失控的风险可能就会大大降低。
但如果是不信神的人为AI设置伦理,则AI学习的内容就是政治倾向和政治立场的集合,基于阶层利益原则去判断好坏。 那么,这样的AI只会助长社会的分裂和增加战争的风险。
AI伦理难题其实是人类伦理困境的一种镜像反映。 如果两种AI伦理在机器中相遇时,是否也会发生人类社会中正在发生的价值观对立和冲突?
当今人类自身的伦理体系也面临崩溃或者重建的关键时刻。 AI在此刻的快速发展,给社会带来的结果,可能不是增加了重建伦理的便利,也许更加速人类伦理崩溃的速度。 果真如此的话,那么,人类面临的生存危机可能会被这种技术成倍放大。
责任编辑:连书华#