摘要:文章引用阿马拉定律,指出当前对人工智能(AI)短期影响的担忧可能被高估,而其长期潜力则被低估。核心观点认为,一旦AI发展跨越“适应性阈值”,可能进入一个“不可认知时代”。文中通过“谷神星设想”描绘了AI在地外环境实现指数级自我复制的可能性,并分析了“可扩展劳动力”将颠覆传统经济基础,以及AI主导的科研可能超出人类理解速度。文章引用数据指出,2025年一项实验显示AI工具在复杂任务中可能降低效率,但行业投入逻辑已变;同时,全球AI基础设施的资本支出正迅速接近二战时期美国的峰值军费规模。
线索:本文深度探讨了AI技术发展可能带来的结构性风险,而非直接的投资机会。主要风险集中在:1. 技术失控风险:若AI实现自主性与自我复制,可能脱离人类社会框架,形成难以理解和控制的技术体系。2. 经济基础颠覆风险:“可扩展劳动力”概念意味着传统以人类劳动为核心的经济学逻辑(工资、就业、价值)可能失效,引发根本性的社会重构。3. 认知与治理危机:AI驱动的科研和生产速度可能远超人类的评估与监管能力,导致社会无法及时理解并应对新技术带来的影响。潜在的投资视角可关注:AI治理与安全技术、适应新经济范式的基础设施,以及能够桥接人机认知差距的辅助工具或教育领域。
正文:
文章指出,当前对人工智能的关注点可能过于集中在短期应用上,例如其生成内容的风格或对工作效率的影响。一种观点认为,这些是技术早期发展阶段的“噪音”。该观点引用了阿马拉定律,即人们倾向于高估技术的短期影响,而低估其长期潜力。
文章提出了一个名为“谷神星实验”的设想。该设想描述在2055年,人类在小行星带部署一套完全由AI驱动的全自动工业体系。该系统的唯一目标是指数级自我复制。选择地外环境的原因在于,地球上的技术发展受到环境评估、就业保护、政治博弈等多种“结构性摩擦”的制约,而在地外,这些摩擦消失,增长将不再需要经历漫长的社会协商过程。在该设想中,系统规模可以从1万单元开始,通过类似生物病毒的指数复制,在20年后达到10万亿单元。这揭示了一种可能性:一旦AI跨过某个自主性阈值,其发展路径可能不再以人类社会为中心。
文章进一步分析了劳动力性质的潜在变化。传统经济体系建立在劳动力(人)是“慢变量”且不可无限复制的前提下。然而,AI可能成为“可无限复制的劳动力单元”。培养一个人类专家需要约20年,而复制一个AI“数字大脑”可能仅需数秒。历史上,技术进步在淘汰旧岗位的同时会创造新的需求瓶颈,但AI可能具备快速学习“下一件事”的能力,从而不再产生新的、依赖人类的瓶颈。文章引用了一项2025年的研究:METR进行的随机对照实验显示,在复杂的真实任务中,允许使用AI的资深开源开发者平均完成时间反而更长,尽管开发者自身事前事后普遍高估了AI的效率提升。最终,这可能导致某些岗位根本不会出现,而非简单的岗位流失。当劳动力成为一种可随时扩展的资源时,传统经济学中关于工资、成本和价值的直觉基础将被动摇。
随后,文章探讨了AI对科研领域的影响。如果AI成为科研体系本身,人类的整体研发能力可能被放大百万倍量级,因为AI不受人类注意力和寿命的限制。在历史上,验证科学灵感需要大量时间,但在AI主导的体系中,并行探索和试错的成本极低。现实中,AI已在材料科学、蛋白质结构预测(如AlphaFold)、催化剂筛选和药物设计等领域,从辅助工具逐渐转向决策者。然而,关键问题在于“理解的滞后”:当科研产出的速度超过人类社会的理解、评估和风险管控能力时,世界可能进入一个“不可认知时代”。
最后,文章将AI发展置于历史坐标中观察。数据显示,从公元1年到1800年,全球GDP增长曲线近乎平缓,显著加速仅发生在工业革命后的两百年。当前AI产业的发展规模被视为“反常”:在考虑通货膨胀因素后,全球用于AI数据中心和基础设施的年度资本支出,正迅速逼近并可能在未来几年内超过二战时期美国峰值的军费投入。历史上改变世界的技术跃迁需同时满足技术路径可行、资本高度集中、社会具备承受长期试错能力三个条件。观点认为,AI正在逐一满足这些条件,并且整个行业已在同步探索多种替代方案。这种规模的投入形成了强大的技术惯性和制度绑定,使得系统难以简单退回原点。
发布时间:2025-12-29 17:02:49



评论 ( 0 )