从Credo看几个典型的高速互联场景
“ AWS AEC核心供应商Credo业绩大超预期”
AWS核心供应商Credo发布新季度业绩,当季与展望大超预期,数据中心互联进入高速以太网建设的加速期。
财报亮点:
营收增长:第二季度营收同比增长 64%,达到 7200万美元,远超分析师预期的 6650万美元。
盈利表现:调整后每股收益(EPS)为 0.07美元,与市场预期一致,但营收的强劲表现进一步提振了市场信心。
第三季度指引:预计营收将在 1.15亿至1.25亿美元之间,远超分析师预期的 8604万美元。调整后的毛利率预计在 61%-63% 之间,展现出强劲的盈利能力。
市场需求:公司总裁兼CEO Bill Brennan 表示,随着 AI部署需求 的增长和客户关系的加深,公司已经迎来了收入增长的转折点,需求甚至超出了最初的预期。
财报发布后,Credo 的股价在盘后交易中 暴涨超过30%,市场对其业绩和前景非常看好。投资者普遍看好Credo的未来发展,尤其是其在 人工智能基础设施 领域的布局被认为比一些巨头(如Nvidia)更具吸引力。公司高管明确指出,这一增长主要得益于AI部署的推动以及与客户关系的深化。随着人工智能技术的广泛应用,对光纤和以太网连接解决方案的需求激增,Credo成功抓住了这一市场机遇。此外,公司预计未来季度的营收将进一步增长,表明AI相关基础设施需求的持续扩大将为其业务带来更强劲的推动力。01 AEC(主动电子线缆)行业与产业链深度分析
1. 什么是AEC?主动电子线缆(Active Electrical Cable, AEC)是通过在传统铜缆中嵌入电子元件(如信号放大器和均衡器)实现高性能数据传输的解决方案。
核心价值:提供高带宽和低延迟的传输能力。相较于光纤,AEC在短距离传输中更具成本效益,且更高效和可靠。特别适用于数据中心、AI集群和高性能计算(HPC)中的短距离高密度连接。
2. AEC产业链主要环节
(1)上游:原材料和电子组件供应
-
高质量铜缆:用于传输数据的物理介质。
-
半导体芯片:包括嵌入式信号放大器、均衡器和SerDes芯片。
-
连接器和封装:支持线缆的结构化和标准化接口。
核心参与者:
-
半导体厂商:如博通(Broadcom)、Marvell等提供芯片技术支持。
-
铜缆供应商:如Prysmian Group、Belden等。
-
连接器制造商:如Amphenol、Molex等。
竞争壁垒:高纯度铜材和高性能芯片技术是关键壁垒,要求高度专业化的制造能力和研发投入。
(2)中游:AEC产品设计与制造
主要功能:在短距离传输中,通过嵌入芯片实现信号的放大、均衡和纠错功能,确保数据完整性。提供即插即用的模块化设计,便于客户快速部署。
核心参与者:
-
Credo Technology:市场领导者,拥有“ZeroFlap”等创新技术。
-
Broadcom:通过成熟的SerDes技术切入市场。
-
Spectra7 Microsystems:专注于消费级和数据中心级AEC解决方案。
-
其他新兴厂商:参与者包括中国的硅谷数模等初创企业。
竞争壁垒:技术壁垒:AEC的设计需要高度优化的信号处理技术,涉及硬件和软件的协同开发。厂商需要深度参与客户设计流程,为特定场景提供定制化解决方案。
(3)下游:应用与部署,主要应用场景,包括数据中心、AI集群、高性能计算HPC等
-
支持规模化的并行计算需求。
-
支持高密度AI训练和推理场景,降低网络延迟。
-
连接GPU到GPU之间的高速通信。
-
GPU到交换机的短距离互连。
-
消费电子(较少):如超高清显示和虚拟现实设备。
-
核心参与者:超大规模云服务提供商(如亚马逊AWS、微软Azure、Google Cloud)。AI初创企业(如xAI)。网络设备制造商(如Cisco、Arista)。
-
竞争壁垒:成本与性能:AEC在短距离部署中需要对比光纤表现出显著的成本和性能优势。网络集成:客户需要高度兼容其现有的网络架构,任何性能或质量问题都会影响采用率。
3. AEC行业实现的核心功能
-
信号完整性:嵌入信号放大和均衡技术,确保高速传输中信号不衰减。
-
低功耗:相比光纤解决方案,AEC功耗更低,适合高密度部署。
-
高可靠性:如Credo的“ZeroFlap”技术,可避免短距离连接中常见的“链路断裂”问题。
-
成本优势:铜缆本身成本低且易于维护,在短距离传输中具有显著经济性。
4. 各环节根据竞争壁垒的确定性排序
中游环节具有最高的竞争壁垒,Credo等企业凭借强大的研发能力和客户协作优势,在设计与制造端占据主导地位。
上游环节因原材料和标准化供应商较多,进入壁垒较低,但核心芯片制造仍需要高度专业化的能力。
下游环节的竞争壁垒主要体现在客户粘性和网络集成需求,成功切入超大规模客户的供应链是关键。
5. AEC行业核心参与者竞争力比较
6. 未来发展趋势与机遇
技术趋势:高速(800G及以上)和低功耗设计是未来发展重点。短距离网络中,铜缆与光纤的混合应用将持续,但AEC的可靠性优势可能促使其在更多场景中替代光纤。
市场机遇:随着AI集群和高密度数据中心建设的加速,AEC市场需求将显著增长。新兴AI企业的兴起为AEC提供了更大的市场渗透机会。
AEC行业依托于数据中心和AI网络的发展,Credo等领先企业在中游环节的技术积累和客户合作深度是其成功的关键。随着市场需求的增长,AEC有望在短距离高性能网络中占据更大的市场份额,同时也需要应对技术创新和行业竞争的双重挑战。
02 几个典型的数据中心高速互联场景
高速互联是数据中心和AI集群的基础,其主要目的是支持高带宽、低延迟和高可靠性的数据传输。在数据中心、AI集群和高性能计算(HPC)中,互联场景可以分为GPU互联、GPU与交换机互联、交换机互联、以及存储节点互联。以下是对这些典型互联场景及其主要工具和参与角色的深度分析。
1. GPU互联(GPU-to-GPU)
-
GPU互联主要发生在单个计算节点内或者节点之间的GPU协同通信。
-
在AI训练和高性能计算中,GPU需要共享大规模数据并进行高速通信,互联的性能直接影响计算效率。
主要互联工具
-
NVLink(NVIDIA专属技术):
-
高速互联总线,提供高带宽和低延迟支持。
-
第四代NVLink带宽高达900GB/s(跨多GPU通信)。
-
用于NVIDIA GPU之间的直接连接,构成单节点的计算单元。
-
-
PCIe(Peripheral Component Interconnect Express):
-
高速接口标准,支持GPU与CPU、GPU与GPU之间的通信。
-
最新一代PCIe Gen 5/Gen 6支持128GB/s带宽,适合短距离互联。
-
广泛应用于多厂商GPU解决方案中。
-
-
InfiniBand:
-
网络协议和硬件标准,提供超低延迟的GPU互联解决方案。
-
常用于跨节点的GPU互联,在AI训练集群中广泛采用。
-
-
Credo的AEC:
-
提供短距离高密度GPU互联,支持800G及更高带宽。
-
功耗低、信号完整性高,适合节点内的GPU互联需求。
-
主要参与角色
-
NVIDIA:提供GPU硬件(如H100)及专属互联技术(NVLink)。
-
AMD:通过Infinity Fabric和PCIe技术支持GPU互联。
-
Credo:为多GPU互联场景提供高性能线缆解决方案。
-
Mellanox(现为NVIDIA子公司):InfiniBand网络解决方案的核心供应商。
2. GPU与交换机互联(GPU-to-TOR Switch)
-
单个机架内的GPU节点与顶层交换机(Top-of-Rack, TOR)的连接,是AI集群和数据中心通信的关键。
-
此类连接需支持高密度部署、低功耗和低延迟。
主要互联工具
-
主动电子线缆(AEC):
典型代表:Credo的800G ZeroFlap AEC。功耗低、可靠性高,相比传统光纤更适合短距离高密度连接。
-
DAC(Direct Attach Copper, 直连铜缆):成本低,但受限于信号完整性,传输距离通常不超过5米。用于对功耗敏感的小型部署场景。
-
光模块(Optical Transceivers):用于更长距离的机架间连接(>5米)。典型速率支持400G/800G。
主要参与角色
-
Credo:通过AEC产品为GPU到交换机的短距离互联提供高可靠性解决方案。
-
Broadcom:光模块和以太网交换芯片的主要供应商。
-
Arista Networks:TOR交换机的核心供应商,提供高密度以太网解决方案。
-
Cisco:顶层网络设备提供商,为GPU到TOR连接提供全面支持。
-
安费诺:DAC主要供应商之一。
3. 交换机互联(Switch-to-Switch)
-
交换机互联发生在TOR和Spine交换机之间或Spine交换机之间。
-
Spine-Leaf架构是现代数据中心的核心,支持大规模横向扩展。
主要互联工具
-
光模块(光纤连接):用于中长距离(10米至几公里)的交换机互联。主流速率支持400G、800G和1.6Tbps。
-
DAC:用于机架内或机架间的短距离互联(通常<5米)。成本低,但易受距离限制。
-
AEC:在短距离应用中逐渐取代DAC和光纤,提供更高信号完整性和更低功耗的解决方案。
主要参与角色
-
Cisco、Arista Networks、Juniper Networks:提供核心交换机解决方案,支持多种互联方式。
-
Credo:通过高带宽AEC解决方案优化短距离交换机互联。
-
Broadcom、Marvell:供应高性能光模块和交换芯片。
4. 存储节点互联(GPU-to-Storage)
-
GPU需要快速访问分布式存储,尤其在AI训练中,需要实时处理大规模数据集。
-
存储节点与GPU通过高速互联实现数据的快速传输。
主要互联工具
-
NVMe-oF(NVMe over Fabrics):通过以太网或InfiniBand实现高性能存储访问。支持低延迟和高带宽传输。
-
InfiniBand:提供GPU到存储的超低延迟互联。广泛应用于高性能计算和AI集群中。
-
光模块:用于长距离连接,支持分布式存储和云存储的高速访问。
主要参与角色
-
NetApp、Pure Storage:分布式存储系统提供商。
-
NVIDIA:通过InfiniBand优化GPU到存储的连接。
-
Credo、Broadcom:通过高速互联解决方案支持数据传输需求。
互联架构的核心功能与技术趋势
核心功能
-
高带宽:支持AI和HPC对数据吞吐量的极高要求。
-
低延迟:优化实时计算和训练的效率。
-
高可靠性:确保长时间运行的稳定性,减少链路波动或断裂。
-
成本效益:在高密度部署中降低互联设备成本和功耗。
技术趋势
-
更高速率:从800G向1.6Tbps迈进。
-
低功耗设计:特别是在高密度短距离连接中,功耗优化成为关键。
-
模块化与兼容性:支持不同设备和协议的互联,提升系统灵活性。
- 典型互联场景分析表明,Credo等领先公司在GPU互联和GPU到交换机连接中占据重要地位,尤其通过AEC产品提供了短距离互联的最佳解决方案。
-
主要参与角色覆盖从硬件供应商(如Broadcom、Credo)到系统集成商(如NVIDIA、Cisco),构成了一个高效协同的产业链。
-
未来方向将集中在更高速率、低功耗的技术突破,以及更高效的分布式互联架构上,推动数据中心和AI集群的持续升级。
文章来源:贝叶斯之美,原文标题:《从Credo看几个典型的高速互联场景》
Reprinted from 见闻VIP,the copyright all reserved by the original author.
Disclaimer: The content above represents only the views of the author or guest. It does not represent any views or positions of FOLLOWME and does not mean that FOLLOWME agrees with its statement or description, nor does it constitute any investment advice. For all actions taken by visitors based on information provided by the FOLLOWME community, the community does not assume any form of liability unless otherwise expressly promised in writing.
FOLLOWME Trading Community Website: https://www.followme.com
Hot
No comment on record. Start new comment.