又卡在硬件上了,咋整?_风闻
非凡油条-非凡油条官方账号-深度解读全球政治财经动向的前因后果04-27 19:24

作者:豆腐乳
编辑:养乐多
ChatGPT火了,可是它的发展也是有限制的。
一个比较大的问题就是算力。
有人研究称,OpenAI每天的运作可能要花费高达70万美元,因为人工智能运行所依赖的计算基础设施价格昂贵。
这个估价还是估计的GPT-3模型的运行,假如运行的是更完善的GPT-4模型,运行费用肯定还要高很多。
这是因为人工智能是很依赖算力的,只有算力支撑,它才能给出较为准确、或是脑洞大开的回复。
而支撑人工智能算力的芯片,还得看英伟达。英伟达单片价值1万美元的 A100 芯片占据了数据中心 GPU 市场 90% 以上的份额,主要用于训练和运行人工智能。
好货,也不便宜,产能也不好上去。
这一下抬高了人工智能训练和运行的成本。
从算力意义上讲,人工智能算法的软件被芯片的硬件卡了脖子。
这可不只局限于ChatGPT。
比如智能汽车,自动驾驶技术也需要算力支撑。只不过ChatGPT风头正劲,自动驾驶成了牛夫人,最近不怎么出现在媒体热点上了,但自动驾驶还在发展,也需要算力支持。
说起来ChatGPT风头正劲,国内也有很多人想做类似产品,或者确切地说,大模型。
于是一时间,什么“通义千问”、“文心一言”、“ChatJD”、“日日新”之类的,都冒出来了。
由此可见,大模型的算法可能还真没那么难做出来。
可是算力从哪里搞呢?
这可能是被卡脖子的关键。
去年,在美国出口管制新规限制下,英伟达的A100芯片就无法向中国出口了。英伟达只能想办法提供替代产品。
国际数据公司(IDC)等发布的数据显示,2022年我国智能算力规模达到268百亿亿次/秒,超过通用算力的规模;预计未来5年,我国智能算力规模的年复合增长率将达52.3%。
中国智能算力规模飞速增长的原因是,人工智能未来将会运用到很多领域,无论是过气网红元宇宙、智能驾驶,还是当红炸子鸡大模型,都需要大量算力支撑。
在这个技术飞速发展的时间点,被美国卡脖子可就难受了。而我们之前在《新兴产业,要被赶尽杀绝》里就提到了,美国是不会放过任何一个在高新科技领域卡脖子的机会的。
在最近的“多样性算力产业峰会2023”上,中国工程院院士郑纬民指出当前发展多样性算力的挑战,里面就有供应链不确定性,先进制程芯片、制造设备断供,开源软件授权或登录风险,工程软件限制使用。另外,产业标准不确定性,国际计算标准和产业组织限制参与、标准化所需测试验证工具限制使用。
所以当业界都在盯着大模型摩拳擦掌的时候,还需要注意这背后的硬件支持。如果芯片不能突破卡脖子,不能支撑人工智能所需算力的话,那么大模型的训练和运行质量也不高。
所以即使市场炒作人工智能,也得带着半导体一起玩。
当然最近市场不大行,这个我们提前两周就说过了。想了解更多,欢迎进知识星球。
上下滑动查看参考资料:
大模型激战,能否再造20年前的互联网盛景?|界面新闻 · JMedia https://www.jiemian.com/article/9294674.html
最新财新周刊|何为华为不造车?_财新周刊频道_财新网 https://weekly.caixin.com/2023-04-22/102022497.html?p0#page2
国产AI大模型“百舸争流” 夯实算力底座正在进行时_中国经济网——国家经济门户 http://bgimg.ce.cn/cysc/tech/gd2012/202304/12/t20230412_38493277.shtml
中国工程院院士郑纬民:多样性算力发展面临三大挑战 - 推荐 — C114通信网 https://www.c114.com.cn/news/16/a1230217.html
ChatGPT每日运营费70万美元!微软暗自研发AI芯片降成本 https://www.cls.cn/detail/1329364
文章用图:壹图网
本回完