据《科创板日报》9 月 19 日报道,方正证券近日在研报中表示,不同于云端算力搭配专用 GPU 工作,本地模型推理的算力更多依赖于终端硬件 SoC,算力瓶颈可以依靠未来的芯片架构升级(Chiplet)以及制程升级(3 nm/2 nm 工艺)解决,存力优化才是大模型终端应用的重中之重。存力是未来 LLM 终端化应用的最大障碍,未来最先进的移动端设备或有望率先搭载 HBM 突破这一障碍。来自训练、推理环节的存力需求持续增长将带动 HBM 市场扩容,同时消费端及边缘侧算力需求趋势也将打开 HBM 中长期维度市场空间,国内产业链也将在材料、设备及产品等各个环节受益。
原文链接