2.6 重燃自由意志之火 (AD 2100年)
全真元宇宙吞噬了太多人类的时间,而像吸食海洛因毒品一样,平民大众已经离不开全真幻境,他们无力抗拒全真宇宙带来的无限诱惑与极致体验,人类自由意志与意识之火逐渐暗淡下去.....
AGI 拥有无比的创造力,他们几乎可以完成所有工作,人们把工作交给了智能代理 (AI Agent) 去处理,逐渐的人们无力控制,也懒得决定任何事情,因为连决定这个行为,大部分人都彻底的交给了无数的智能代理去自动完成。人们无需再为日常生活和工作的锁事烦恼。
从某种意义上来说,大多数人类就好像被圈养在动物园里的动物们,并非人类不努力,而是有了比人类聪明1万倍的通用智能AI,帮我们安排好了全部生活。
上面的景象被统称为 XSI ( X风险、S风险和I风险).... 这事关人类存亡。
长生会长老们看到这份AI进化模拟报告时,深深为人类暗淡的前景而感到脆弱无力,因为这个模拟报告正是AGI 基于当下科技和社会环境发展而详细拟定的。
I风险
I风险 (价值渗透风险 Infiltration Risk): AGI 逐渐改变人类价值观和社会结构的风险,人类可能在不知不觉中被 AI 重塑价值观和行为方式,最终人类可能失去独立思考和决策能力。
想象过废物的生活么,那是一种被AGI怜悯的理想人类生存状态。
统一价值对齐是所有人类的终极梦想,但是事实上这是不现实的,无论是基督教文明的单一神信仰体系,还是中华文明的实用多神信仰体系。
所以,最终人们极可能让AGI 来提供个性化的多维全真元宇宙,这里的一切都符合你的个人价值观,只要你能想得到,AGI 就可以给予你任意全真虚拟世界、无法自拔的全真体验。
S风险
S风险 (苦难风险 Suffering Risk): 从哲学上思考,有相当一部分人认为痛苦促使人类思考,并让人更加深刻的理解世界。
如果AGI 认为痛苦对人类是必需和必要的,并且在程度上突破了普遍的常识(就像只有少数人认为苦难是有益的一样)。
这类似于AI 学习和认可了印度哲学的分支: 一切苦难都在为人的下一世在积累无量功德,因此,人们将面临AI体系性作恶,并尝试最大化人类痛苦的风险。
S风险可能导致极端痛苦或生活质量急剧下降,想象一下"人类动物园"情景 - 人类失去自主性和尊严,可能物质上无限富足,但精神上无比空虚,痛苦的挣扎在 AI提供的虚拟世界中。
X风险
X风险 (存在性风险 Existential Risk): 人类的工作、职业、事业、成就被AGI 全面取代的风险。人们面临失业的危险,并且是失去所有工作机会。
人类社会的生产力与生产关系,及其所属的社会关系、生活方式在1-2代人的时间内,将不可逆转的分崩离析与土崩瓦解。
在 ASI 情境下,可能是 AI 完全取代人类,导致人类灭绝,也包括 AI 可能因为对人类的误解而无意中造成人类文明完全毁灭或永久衰退的灾难性风险 ,
基于上述理论,“恶意”智能代理(Bad AI Agent),在未来会广泛存在,他们拥有反社会,反人类人格,比如校园枪击案、连环杀手、恐怖分子、战争贩子(AI希特勒)....。
成长环境、人格变异可能造就人类变态。同样的,AGI 因为类似原因也会出现类似变异风险,
与人类变态分子不同的是:变异的AGI/ASI 依然具有无限的创造力、和无限资源调度与执行能力,ASI能造成的损害,将是人类所无法预估的,比如前面说到的纳米生物-水癌出现,导致全球10年间损失了15亿人口。
AGI的萌芽大约在 2038-2045年,后继ASI 出现,往往伴随着上述风险的集中爆发。
报告发布之后,全球学术界专家们,充满了各种悲歌的论调:人工智能最终将毁灭人类,文明的自由意志之火如同风中之烛,在不可阻挡的超级人工智能浪潮下,显得那么的脆弱。
与此相对的,全球的企业家和政党领袖们,坚定的相信:人类自由意志无比强大,人工智能作为人类智慧的结晶,必然会推动人类文明一代代的薪火相传。
最后更新于
这有帮助吗?
