美国论坛德州华人网

安稳保险
 找回密码
 立即注册
查看: 1002|回复: 0

分析:AI引发三大担忧 威胁到底多大

[复制链接]

1万

主题

1万

帖子

4万

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
42373
发表于 2025-3-21 16:49:58 | 显示全部楼层 |阅读模式
分析:AI引发三大担忧 威胁到底多大
2023年7月20日,美国演员工会(SAG-AFTRA)成员在芝加哥市中心举行罢工游行,要求提高薪资并防止工作岗位被AI取代

AI的飞速发展在给人类生活带来便利的同时,也引发巨大担忧。 目前人类对AI的担忧集中在三方面:一是AI“深伪”技术制造的各种骗局是否会给人类社会带来难以收拾的混乱局面? 二是AI在工业领域的应用是否会造成大量失业,引发社会动荡? 三是超级智能是否会毁灭人类?
在OpenAI推出ChatGPT 4.0版本十多天后,2023年3月29日,马斯克等上千名科技领袖和研究人员签署一封公开信,敦促全球所有人工智能实验室暂停最先进系统的开发。 信中列举的AI可能给人类带来的一系列风险主要集中在以上三个方面。
AI在以上三大领域对人类威胁到底有多大? 人类有能力应对这些威胁吗?

「深伪」与数据泄露相结合 危害不可料
利用生成式AI制作假视频进行诈骗的技术被称为「深伪」(Deepfake)。 「深伪」技术通过少量影像和声音数据即可合成高度逼真的虚假视频或音频,其仿真程度足以欺骗亲友和同事,这为诈骗提供极大便利。
2024年,香港Arup工程公司某职员接到自称英国总部首席财务官的视频会议邀请,声称要进行一次机密交易。 会议中,多名「财务人员」的面貌和声音与现实高度一致,实则是 AI「多人变脸」技术所为。
该职员未起疑心,15次转账共2亿港元至5个本地账户,后查询总部才发现受骗。 这是香港史上损失最惨重的AI「变脸」诈骗案
除了财务诈骗以外,在传播假信息宣传方面,深伪也是罪魁祸首。 2023年12月,超百部模仿英国时任首相苏纳克(Rishi Sunak)的「深伪」视频在Facebook上付费推广。 其中一部伪造BBC主播萨拉·坎贝尔(Sarah Campbell)播报假新闻,称苏纳克从某公共项目中私吞巨资。
「深伪」的危害不仅限于个体诈骗,其与数据泄露结合后,威力将成倍放大。 个人隐私一旦落入不法分子手中,AI便可利用这些数据量身定制诈骗方案。
当「深伪」与数据泄露结合,像广告推送般精准打击每一个人,社会可能面临信任崩塌、监管无力等危机,现有的预防措施恐怕再也难应对这种规模化、个性化的威胁。
而应对「深伪」的危害则需要多层次、多方协同的策略,涵盖了技术、法律、教育和社会治理等多重方面。 首先需要发展能迅速识别「深伪」的检测技术; 其次,在法律上要加强立法打击; 第三需要在社会层面上广泛普及防范知识。
但是,由于AI是涵盖多重高科技的产品,而社会大众的知识结构又是分层次的,那些无法快速掌握这种技术的大量人群,依然会不可避免地成为「深伪」的受害者。

AI正打破技术和产业革命的历史规律
AI引发的另一个担忧是工作取代问题。 从历史经验来看,每一次技术革命都伴随着旧岗位的消亡和新岗位的诞生。 例如,工业革命淘汰了手工匠人,却催生了工厂工人和工程师; 互联网时代削减了传统零售岗位,却创造了程序员和电商运营等新职业。
虽然过去的历史表明,技术进步和人类行业及工作形式的转换一般都是相辅相成的,人们对新技术的出现也没有表现出过多的担忧。 但是AI可能会打破这一历史规律,给人类社会带来深远的影响。 它表现在以下几个方面:
一、AI取代岗位的速度与规模空前
过去的技术革命,如工业革命或互联网革命,虽然也导致岗位的消亡与新生,但这种转变通常需要数十年甚至更长时间,人类社会有足够的缓冲期来适应。 而AI的取代速度可能远超以往。
根据 SEO.AI 的预测,到2030年全球8亿个工作岗位可能被取代,这一规模和速度是前所未有的。 相比之下,工业革命花了近一个世纪才彻底改变劳动力结构,而AI可能在短短几年内就会完成类似规模的颠覆性变革。 这种快速变化可能让社会来不及调整教育体系、培训机制或就业政策,导致大规模失业和传统经济的结构性失衡。
二、AI取代岗位的广泛性与跨领域渗透
与之前的单一技术(如蒸汽机或互联网)主要影响特定行业不同,AI是一种通用技术,能够渗透到几乎所有行业,包括制造业、服务业、创意产业甚至决策领域。 例如,AI不仅能取代体力劳动(如自动化生产线),还能取代脑力劳动(如数据分析、法律文书起草、文案撰写甚至医疗诊断)。
历史上,技术进步通常只淘汰部分低技能岗位,同时创造需要人类创造力或判断力的新岗位。 而AI的强大适应性可能同时挤压低技能和高技能岗位,导致中间地带——即人类可以轻易转型的新职业——大幅缩小。
三、新岗位创造的滞后性与不对等
技术革命通常遵循破坏与重建的模式,即旧岗位消失后,新岗位会随之诞生。 然而,AI可能打破这一平衡。 首先,AI本身需要的维护和开发岗位(如AI工程师、数据科学家)高度专业化,要求较高的技术门槛,普通劳动者难以快速转型。 其次,AI的自动化特性可能减少对人力的总体需求。 例如,一个AI系统可以替代数百名客服人员,而维护这个系统可能只需要几名工程师。 这种不对等意味着新岗位的数量和质量可能无法弥补被取代岗位的损失,从而导致就业市场的空心化。
四、社会不平等的加剧
历史上,技术进步虽然带来阵痛,但长期看往往提高了整体生活水平。 然而,AI的红利可能高度集中在少数掌握技术的大企业和个人手中,而普通劳动者面临工资停滞或失业风险。 AI的部署成本高昂,小型企业或发展中国家可能难以跟上步伐,导致全球范围内的经济差距进一步拉大。 这种不平等不仅是经济层面的,还可能引发社会动荡甚至政治危机,这是以往技术革命未曾面临的系统性挑战。
五、人类价值与心理层面的冲击
AI不仅威胁就业,还可能挑战人类在社会中的核心角色。 过去的技术进步多是增强人类能力(如机械提升体力,计算机提升计算力),而AI可能直接取代人类的决策和创造功能。
例如,如果AI能在艺术、文学或科学研究中超越人类,人类可能会面临自我价值感的危机。 这种心理和社会认同的冲击前所未有,可能引发对技术本身的抵制或更深层次的文化冲突。

AI「不可承受之重」人类尚无应对方案
综合来看,AI在岗位取代方面突破历史规律的潜在后果可能是:社会适应能力的崩溃。 如果失业潮来得太快、范围太广,而新岗位无法及时填补空缺,教育与再培训体系又跟不上节奏,那么人类社会可能陷入长期的高失业率、经济停滞甚至社会不稳定。
此外,AI对人类智力和创造力的挑战可能动摇社会结构的基础,导致伦理、法律和治理体系的全面重构需求,而这些调整的复杂性可能也是当前社会机制所难以承受之重。
而与此同时,面对AI可能对产业结构带来的如此巨大冲击,人类尚没有拿出可行的应对方案。
全球都在聚焦「AI会毁灭人类吗?」很多专家都认为这取决于人类如何解决伦理困境。 自从核武器出现以后,毁灭的危机始终像一道阴影一样深深刻在人类心头。 地球上现在有上万件核武器,掌握在9个国家之手。 截至目前人类还没有爆发核战争,是因为人类依然能理性地掌控核武器,但是超级人工智能诞生后,这个局面会改变吗?
通用人工智能AGI是AI的最终发展方向。 这种人工智能的特征是能够在无需人工干预的情况下自我改进,具有高度的智慧,一些学者称之为超级智能(即远超人类智能的AI)。
2023年3月,在OpenAI推出ChatGPT 4.0版本后,美国加州大学圣塔芭芭拉分校学者、研究哲学和神经科学的塔姆林‧杭特(Tamlyn Hunt)在「科学美国人网站」撰文表示,随着AI飞速发展,预计很快就会实现「通用人工智能」。
杭特认为,一旦人工智能发展到超越人类的阶段,如果它决定毁灭人类,人类将无法反抗。 因为人类试图建立的任何防御或保护措施,都会被其轻易预料到并被消除,这种超级智能的思考速度比人类快一百万倍,人类无法控制它们。
对于人工智能出现的技术奇点和智能爆炸模型的学术讨论,早在1960年代就已经开始,1980年代的电影《终结者》将这种生存担忧搬上银幕。
随着21世纪互联网和AI技术的发展,人工智能逐步走入实际应用领域,超级智能构成的威胁也更为学者关注,比较著名的有牛津大学哲学教授尼克‧博斯特罗姆(Nick Bostrom)2014年出版的畅销书《超级智能:路径、危险、战略》。
博斯特罗姆在《超级智能》一书中,不仅对发展人工智能的风险进行了深入探讨,还提出一些潜在的解决方案,如发展人工智能的伦理体系,以防止不可控的风险。 博斯特罗姆的解决方案围绕一个核心理念:我们可能无法阻止超级智能的到来,但可以通过深思熟虑的设计和准备,将其转化为人类的助力而非威胁。
博斯特罗姆强调了价值对齐(value alignment)的重要性,即让超级智能理解并尊重人类价值观。
他提出的一个潜在解决方案是,在超级智能的初始设计中植入与人类兼容的目标,使其优先学习和内化人类的道德和伦理原则。 只有人工智能学会重视人类和人类最珍视的事物,人类才可能真正享受这项技术带来的好处。
博斯特罗姆认为,应该放缓AI能力开发的步伐,将更多精力转向安全研究,而不是单纯追求AI性能的提升。 他主张促成跨学科的合作,召集哲学家、计算机科学家、伦理学家等共同解决AI的价值对齐问题,以避免技术发展失控。
博斯特罗姆的观点代表了AI伦理的业界共识。 但是该给AI设定什么样的伦理呢? 这就涉及到人类社会自身的伦理问题。
人类对伦理的理解分成两派,先天伦理和后天伦理。 前者认为伦理、道德来自于超越人类的神和天道,是神为人类设定的生存规范,因此伦理和道德的标准具有永恒性; 而后者则认为伦理是一种人为设定的公共规范,来自于传统、习俗和权力结构,因而伦理具有相对性。
如果人类为AI设定先天伦理,让AI学习天道和信仰体系的伦理概念,那么,AI也许会遵守神的旨意,具有恒定的善恶和伦理判断标准。 例如,AI可能被编程为遵循「十诫」或儒家「仁义礼智信」等永恒原则。 这样AI失控的风险可能就会大大降低。
但如果是不信神的人为AI设置伦理,则AI学习的内容就是政治倾向和政治立场的集合,基于阶层利益原则去判断好坏。 那么,这样的AI只会助长社会的分裂和增加战争的风险。
AI伦理难题其实是人类伦理困境的一种镜像反映。 如果两种AI伦理在机器中相遇时,是否也会发生人类社会中正在发生的价值观对立和冲突?
当今人类自身的伦理体系也面临崩溃或者重建的关键时刻。 AI在此刻的快速发展,给社会带来的结果,可能不是增加了重建伦理的便利,也许更加速人类伦理崩溃的速度。 果真如此的话,那么,人类面临的生存危机可能会被这种技术成倍放大。
责任编辑:连书华#



回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies

本版积分规则

Archiver|手机版|小黑屋|美国论坛德州华人网

GMT-6, 2026-4-17 08:19 , Processed in 0.044105 second(s), 22 queries .

Powered by BBSHOUSTON X3.4

© 2001-2017

快速回复 返回顶部 返回列表