爱博love体育官网

美国AI泡沫会吗会重演互联网泡沫吗?

来源:爱博love体育官网    发布时间:2025-11-08 03:55:54

产品描述:

  任何资金的投入,都是为了获得产出,当投入产出比严重失衡,接盘者不再博傻,泡沫刺穿的那一天,就是一地鸡毛的那一天。

  美国的AI发力于底层大模型,依靠资本疯狂烧钱推动,但到目前,仅仅在替代部分中低端白领工作之中有一些应用,其他应用,聊胜于无。

  1993-1995年,当万维网与网景浏览器相遇,一个虚拟互联网新世界的大门,由此被轰然推开。

  1996-1998,华尔街资本狂奔,发明了“眼球经济”,信奉“点击率至上”,传统的市盈率被市梦率取代,梦有多美好,互联网+就有多美好!

  1999-2000年初,开启全民狂欢,集体非理性痴情,让市场充满了“这次不一样”的迷之自信。

  FOMO情绪像病毒一样蔓延,纳斯达克指数在一年多时间里翻倍,而恰恰是这全民狂欢,老子说,反者道之动,荀子说,物禁大盛,全民参与,等于再也没有接盘侠了。

  2000年3月,美联储连续加息,给予了互联网沉重一击,抽走了廉价流动性;加之微软反垄断案击碎了光环,互联网的故事再也讲不下去了,当投资者发现烧钱换流量的公司根本没办法盈利时,恐慌的情绪引爆了踩踏效应。

  2000-2002年。纳斯达克暴跌78%,万亿美金财富化为乌有,曾经的互联网光环,成为了美国的海市蜃楼。

  美国的互联网成为了先烈,但东大的互联网却逆势而上,因为东大拥有广阔的市场应用场景,比如,电商,短视频等互联网+等层出不穷,tiktok反杀美国。

  AIAI发展到今天,是从1943-1956开始的,1956年,达特茅斯会议,定义了“人工智能”,人工智能诞生,

  2024年2月15日,OpenAI发布了Sora,称该模型能够生成长达一分钟的视频。

  2025年1月20日,DeepSeek 团队发布第一代推理模型DeepSeek-R1,通过大规模强化学习训练,无需监督微调即可展现出卓越的推理能力。

  从整个人工智能的发展历史来看,基于同样的目标、不同的技术,反复地做一些事情,比如:“聊天机器人(1966年+)”、

  总是在发展,创新,突破,然后陷入瓶颈,AI研究进入寒冬,不断地重复这一过程。

  近来这些年,我们基于生成式AI、大模型持续增强,这些机器在不同场景下的“智能”化。

  当下的AI人工智能热潮,是基于大数据、深度学习、生成式AI、大语言模型。

  人工智能发展得这么火热,是因为大家都一致以为,互联网+的红利即将消化殆尽,科技再不发展,经济将陷入停滞,S3可能会被爆发。

  因此,无论是AI的初创企业,还是天使基金、风投、上市公司,用极为疯狂的烧钱行为砸向AI,试图从中分得一杯羹。

  实际上,除了把某些上市公司的估值越吹越大之外,AI根本就没有创造新的需求,也没有创造更多的实用价值,而没有价值支撑的估值,无疑成为了泡沫。

  在美国,AI在技术突破和应用场景,这类的新故事开始讲不下去了,研发AI一直在亏钱,看不到盈利的希望,因此,很难吸引到新的接盘侠,但是,巨大的沉没成本,又促使AI公司必须巨额资金投入下去,在这种既要又要的情况下,怎么办呢?

  美国本来就是金融强国,利用金融的技术方法继续维持AI的体面,于是我们便看到了AI

  不是AI公司非得这么干,实在是没有很好的方法的办法,因为,此时的AI,几乎吸引不到了场外巨额资金的加入了,但凡有那么一丁点的办法,AI公司也不会这么干。

  这一重磅交易推动甲骨文股价一日飙升36%,创下三十多年来最高单日涨幅,市值暴涨2500亿美元,一度超过9000亿美元。

  投石问路效果如此之好,英伟达宣布投资OpenAI1000亿美元,以支持OpenAI构建围绕英伟达AI处理器、耗资数千亿美元的数据中心集群。

  然后,OpenAI又拿着这钱向英伟达下了1000亿的订单,受此消息刺激,英伟达市值猛增了2000多亿美元,总市值突破4.5万亿美元,大大的巩固了自己全球市值第一的位置。

  接着,OpenAI马不停蹄与AMD也签订了600~900亿美元的大合同,于是,AMD股价暴涨。

  这种左脚踩右脚螺旋升天的把戏,把公司市值炒上天,是不是特别有趣,别急,还有更有趣的事情在后面,

  OpenAI此公司的年营业额才100亿美元,利润是负数,根本就没有挣上钱,一直在融盗画大饼,可现在对外宣布的总订单量就高达1.5万亿美元,不知道这笔钱如何支付?你知道如何支付吗?反正我是不知道。

  美国的AI公司就是这样变戏法,结果是否很美好不知道,但最差的结果也能够凭此多玩几年。

  一张英伟达H100满负荷运转,每小时就要吃掉700瓦电。一个8000张卡的集群,功耗直奔到5.6兆瓦,24小时连轴转,总耗电16.13万度电。这个集群一天的用电量,相当于800个家庭一个月的用电量。

  一个普通的AI数据中心,用电量至少1万千伏安起步,大的要到5万千伏安,相当于一个小县城的用电容量!

  这还没算完——芯片发热惊人,冷却系统也得耗电。七七八八加起来,一个数据中心轻松突破十兆瓦。

  截至今年第二季度末,美国拥有约522个超大规模数据中心,占全球总算力的55%左右。预计在2028年底之前,美国还将有约280个这样的数据中心投入运营。

  如此大的用电需求,美国的电网压力成为了数据中心发展面临的主要挑战,据报道,目前美国的一些数据中心接入电网,需等待长达7年的时间。

  美国的算力捉襟见肘,慢慢来还是能够应付的,问题的重点是,维持一个企业最重要的是现金流。

  好消息是,从去年9月份开始,美联储开始降息,熬了一年之后,今年9月份又开始了第二轮降息。

  美联储降息,必定有大量的资金无处可处,也必定会有一部分钱流入AI,为AI提供现金流续命,将“烧钱换增长”的模式维持更久,

  2025年的降息,只是启动了泡沫的“延时程序”。 它让市场暂时忘记了商业化落地困难、算力成本高昂等根本问题,将一场本可能到来的理性回归,变成了一场更为持久的狂欢。

  3.下一次美联储加息,将釜底抽薪抽掉AI公司的现金流支撑,正如2000年美联储加息,迫使互联网泡沫破裂。

  另外,世界不太平,任何一只黑天鹅的降临,长达数年的科技角力,非常容易被灰飞烟灭。

  极易在某个时刻引爆地理政治学的冲突。一次关键的技术制裁,一条供应链的断裂,都有几率会成为刺破泡沫的最后一根稻草。

  就算一切正常,大约时间在2028年,美国的AI将会会临一场大考,大概率将再次进入寒冬。

  1943-1956,1956年,达特茅斯会议,定义了“人工智能”,人工智能诞生,

  1956-1973,早期热潮、期望无限,1966年:约瑟夫·维森鲍姆(Joseph Weizenbaum)创造了首个 “聊天机器人” ELIZA,1972年,第一代机器人产品WABOT-1,在早稻田大学建造完。它有双手双脚,有摄像头视觉和听觉装置。

  1993-2020,平稳发展、多领域结合、数据驱动AI2020-,热潮,大语言模型

  2022年11月30日,OpenAI发布了ChatGPT,一个自然语言生成式模型、以对话方式来进行交互的人工智能聊天机器人。

  2023年3月14日,OpenAI发布了GPT-4。GPT-4比GPT-3.5更可靠、更有创意,还可以处理更细微的指令。

  2024年2月15日,OpenAI发布了Sora,称该模型能够生成长达一分钟的视频。

  2025年1月20日,DeepSeek 团队发布第一代推理模型DeepSeek-R1,通过大规模强化学习训练,无需监督微调即可展现出卓越的推理能力。