不限 一周内 两周内 一个月内 三个月内 半年内 | |
康宁专稿:解锁AI未来:光电共封装(CPO)光纤基础设施的优化方式 | |
12/31/2024,光纤在线讯,我们惊叹于人工智能(AI)带来的无限可能,但是我们往往却忽略了AI所需的数据处理能力和组件。本文中,作者将阐述在设计和部署光电共封装的光纤基础设施时,用户应该考虑的因素。
什么是光电共封装?
光电共封装(Co-packagedOptics,简称CPO)是通过将交换...... 2024-12-31 09:26:04 | |
2024年终盘点:AI算力需求激增,产能与交付的挑战与机遇 | |
12/30/2024,光纤在线讯,岁序更替,华章日新。2024年即将奏响最终乐章,回望这一年,受益于人工智能(AI)技术的进一步突破,光通信产业迎来了又一年的辉煌。根据和弦产业研究中心的统计,2024年前三季度,光通信上市公司营收同比大增52%,净利润总额同比大增72%。甚至部分企业业绩实现翻番的增...... 2024-12-30 18:54:48 | |
消息称马斯克的xAI已订购10.8亿美元的英伟达GB200 AI服务器,并获得优先交付权 | |
12/05/2024,光纤在线讯,据DigiTimes报道,马斯克旗下的AI初创公司xAI已向英伟达订购了价值10.8亿美元的GB200AI服务器,并获得了优先交付权。预计英伟达将于2025年1月开始交付这些服务器,由富士康代工生产。
报道称,马斯克直接联系了英伟达CEO黄仁勋,讨论了xAI的GB...... 2024-12-05 10:23:42 | |
富士康母公司鸿海业绩亮眼:2024年第三季度净利润增长14%超预期 | |
11/15/2024,光纤在线讯,鸿海集团今日举办2024年第三季度法人说明会,公布了该季度的强劲业绩,其净利润同比增长了14%,达到493亿元新台币,超出市场预期。这一增长主要得益于AI服务器需求的激增。
与去年同期的431亿元新台币相比,鸿海本季度的业绩表现亮眼。公司高层还预测,随着AI技术的...... 2024-11-15 10:58:22 | |
鸿海富士康携手英伟达打造全球最强AI超级计算中心 | |
10/12/2024,光纤在线讯,10月8日,鸿海集团旗下富士康宣布,将与英伟达合作,在台湾高雄建立全球最快的单体AI超级计算中心——鸿海高雄超级计算中心。该中心将采用英伟达的GB200NVL72服务器,拥有2304个GraceCPU和4608个BlackwellB200GPU,提供超过90EFLO...... 2024-10-12 09:04:16 | |
富士康计划在墨西哥建造全球最大的英伟达 GB200 AI 芯片制造工厂 | |
10/09/2024,光纤在线讯,据路透社今日报道,富士康高级副总裁BenjaminTing在2024鸿海科技日上宣布,富士康计划在墨西哥建造全球最大的英伟达GB200芯片制造工厂,不过他没有透露该设施具体将建在哪里。
富士康当前作为苹果的主要供应商,正在扩大业务制造其他电子产品。随着AI初创公司...... 2024-10-09 11:46:36 | |
专访恩达通:800G光模块的规模出货,标志着其跻身全球行业领导者行列 | |
9/19/2024,光纤在线讯,自2023年生成式人工智能大语言模型的发布以来,AI算力需求的激增为高速光模块行业带来了前所未有的增长机遇。近日,我们有幸采访了恩达通销售总监唐佐洪先生,了解到恩达通的800G光模块已经规模出货,标志着其已跻身全球行业领导者行列。
恩达通成立于2017年,由光通信领...... 2024-09-19 07:13:19 | |
分析师:AMD 49亿美元收购ZT交易将对英伟达造成打击 | |
8/21/2024,光纤在线讯,来自Fierce的最新报道写到,分析师认为,芯片制造商AMD以49亿美元收购人工智能(AI)基础设施公司ZT的交易,将有助于AMD在未来几年预计将达4000亿美元的AI市场抢占更大份额,并成为GPU领导者的真正挑战者。
ZT在数据中心设计和部署AI系统方面有着悠久的...... 2024-08-21 14:34:24 | |
英伟达回应AI芯片短缺:下半年增加量产 | |
8/05/2024,光纤在线讯,针对英伟达AI芯片被曝推迟发布的消息,8月4日,英伟达方面回应称:“正如我们之前所说,Hopper的需求非常强劲,Blackwell的样品试用已经广泛开始,产量有望在下半年增加。除此之外,我们不对谣言发表评论。”
此前,消息称,由于设计缺陷,英伟达下一代人工智能旗舰...... 2024-08-05 09:43:36 | |
欧盟委员会竞争专员:英伟达 AI 芯片供应存在“巨大瓶颈” | |
7/08/2024,光纤在线讯,据彭博社当地时间周五晚间报道,欧盟委员会竞争事务专员玛格丽特·维斯塔格发出警告:英伟达的AI芯片供应存在“巨大瓶颈(hugebottleneck)”,监管机构仍在考虑是否或如何采取行动。
“我们已经向他们提出了一些问题,但还处于非常初步的阶段,”她在访问新加坡期间告...... 2024-07-08 10:05:53 | |
索尔思光电800G LR4 QSFP-DD光模块荣获“CFCF2024年度创新产品奖” | |
7/01/2024,光纤在线讯,2024年6月23日至25日,由光纤在线、和弦产业研究中心、江苏省通信学会、南京光通信与光电子技术学会联合主办的CFCF2024光连接大会在苏州举行。索尔思光电800GLR4QSFP-DD光模块荣获2024年度创新产品奖。
英伟达在今年3月推出了最新一代GPUG...... 2024-07-01 09:57:23 | |
消息称鸿海独家供货英伟达 GB200 NVLink 交换器 | |
6/19/2024,光纤在线讯,台媒经济日报消息,鸿海继取得大份额英伟达GB200AI服务器代工订单之后,独占GB200关键元件NVLink交换器订单。
NVLink是英伟达独家技术,包含两个部分,第一是桥接(bridge)技术,即处理器(CPU)与AI芯片(GPU)互相连接的技术;第二是交换器(...... 2024-06-19 16:12:46 | |
英特尔入股立讯精密子公司 或将有助立讯打开北美AI服务器市场 | |
6/19/2024,光纤在线讯,今日,立讯精密(002475.SZ)迎来英特尔入股的消息引起市场高度关注。天眼查App显示,近期,立讯精密旗下东莞立讯技术有限公司发生工商变更,股东新增英特尔(中国)有限公司,同时,注册资本由约5.71亿人民币增至约5.89亿人民币。
据财联社报道,相关产业链人士分...... 2024-06-19 14:50:53 | |
计算机行业携手 NVIDIA 为新工业革命打造 AI 工厂和数据中心 | |
6/04/2024,光纤在线讯,COMPUTEX—2024年6月2日—NVIDIA与全球多家领先计算机制造商于今日共同发布一系列采用NVIDIABlackwell架构的系统,这些系统搭载GraceCPU以及NVIDIA网络和基础设施,助力于企业建立AI工厂和数据中心,推动新一轮生成式AI突破。
N...... 2024-06-04 17:41:58 | |
立讯精密召开业绩说明会:投资奇瑞由控股公司主导 目前无注入上市公司计划 | |
5/08/2024,光纤在线讯,立讯精密工业股份有限公司(以下简称“立讯精密”或“公司”)5月7日发布公告称,公司于5月6日召开了业绩说明会。在会议上,立讯精密董事长王来春表示,“鸡蛋不能放在一个篮子里”的道理大家都明白。包括立讯在内的很多中国企业,都是逐步从制造产业走向创新产业,公司目前约3%的产...... 2024-05-08 14:34:37 | |
加拿大硅光子公司Ranovus与联发科合作 将首发6.4Tbps方案 | |
3/26/2024,光纤在线讯,加拿大硅光子公司Ranovus于3月20日宣布,与联发科建立合作伙伴关系,将提供业界首款6.4Tbps共封装光学器件(CPO3.0)解决方案,内置激光发射器,以最小尺寸提供100Gbps光学I/O速率。该技术面向人工智能(AI)数据中心,可支持计算密集型训练和内存密集...... 2024-03-26 10:00:12 | |
1.6T来临,测试工具准备好了吗? | |
3/22/2024,光纤在线讯,随着GTC2024这个AI盛会的顺利召开,NVIDIA给全球用户带了强大的GPU-Blackwell架构,推出最新GB200芯片,不论从大语言模型性能及功耗,都比上一代产品有了突飞猛进的提升。这些提升在一定程度上也迫使数据互联产品要迅速跟上节奏,像数据中心的互联铜缆、...... 2024-03-22 16:41:02 | |
NVIDIA Blackwell 架构 DGX SuperPOD适用于万亿参数级的生成式 AI 超级计算 | |
3/20/2024,光纤在线讯,美国加利福尼亚州圣何塞——GTC——太平洋时间2024年3月18日——NVIDIA于今日发布新一代AI超级计算机——搭载NVIDIAGB200GraceBlackwell超级芯片的NVIDIADGXSuperPOD?。这台AI超级计算机可以用于处理万亿参数模型,能够保...... 2024-03-20 08:45:51 | |
NVIDIA 最新Blackwell 平台第五代NVLink支持1.8Tbps双向吞吐量 | |
3/19/2024,光纤在线讯,美国加利福尼亚州圣何塞——GTC——太平洋时间2024年3月18日——NVIDIA于今日宣布推出NVIDIABlackwell平台以赋能计算新时代。该平台可使世界各地的机构都能够在万亿参数的大语言模型(LLM)上构建和运行实时生成式AI,其成本和能耗较上一代产品降低多...... 2024-03-19 13:29:36 |