芯片涵盖CPU、GPU、ARM、FPGA、APU等,为用户提供包含业界动态、技术研发、场景应用等在内的精彩内容,帮助用户了解计算芯片行业趋势、产品特性以及适用场景等,为用户选择不同计算芯片的产品提供参考。
从大家用来训练 LoRA 适配器的 RTX 3/4/590,到驱动(并仍在驱动)大语言模型集群的 H100,再到专为大规模生成式 AI 训练与推理而进入数据中心的全新 Blackwell B100+ 芯片 —— GPU 的选择和配置参数可谓五花八门。
NVIDIA CES上正式推出Vera Rubin平台,黄仁勋强调机器人产业的ChatGPT已经到来
本次展会上,英伟达不但正式对外推出了Vera Rubin平台,而且不发布了BlueField-4、全新物理AI模型、Alpamayo汽车大模型平台等,通过技术和产品进一步推动AI的创新。
国产GPU,也能有万卡真工程!摩尔线程打响国产生态第一枪!重磅发布万卡智算集群!全新架构花港指达国际主流水平!重新定义AIPC
2025临近年底,全民都在讨论算力。那么,国产GPU究竟达到什么程度了?未来国产大模型及应用可以实现主权AI吗?这两个灵魂拷问再一次被提到了牌桌上。要回答这两个问题,刚刚上市一周的摩尔线程,绝对是一个值得关注的观察对象。
11月19日,在2025英特尔行业解决方案大会上,英特尔展示了基于英特尔® 酷睿™ Ultra平台的最新边缘AI产品及解决方案,并预览了针对边缘侧的英特尔® 酷睿™ Ultra处理器(第三代),面向具身智能和机器人应用提供强大算力支持。会上,英特尔携手普联技术、海石商用、海信医疗、阿丘科技等众多的生态伙伴,共同分享了丰富的行业应用成果,携手勾勒出端侧AI领域的未来发展新蓝图。
向新而生,同“芯”向上——2025英特尔技术创新与产业生态大会在重庆举行
11月19日,2025英特尔技术创新与产业生态大会在重庆开幕。逾3000名与会嘉宾,包括政府、客户、产业伙伴和开发者,齐聚一堂,共同探讨如何共建生态,加速智能化、融合化、绿色化的产业发展,推动面向新需求、适配新场景的多元化应用落地。
安谋科技Arm China发布全新“周易”X3 NPU:以8~80 FP8 TFLOPS算力,打造端侧AI计算效率的新标杆
2025年11月13日,安谋科技Arm China正式发布了其新一代NPU IP——“周易”X3。作为安谋科技Arm China “All in AI” 产品战略下诞生的首款重磅产品,以及“AI Arm CHINA”战略发展方向的关键实践,“周易”X3 NPU旨在为汹涌的端侧AI发展浪潮,铸就一座坚实而高效的算力基石。
昨晚,黄仁勋宣布了三件大事!10亿美元收购诺基亚股份、AI原生6G、造量子GPU,件件惊天,老黄的眼中:AI绝不是泡沫
如果你是一个GTC大会的常客,肯定会注意到这次主题演讲中最大的不同。老黄开场讲述了英伟达发家史的铺垫后,没有第一时间亮出最新的芯片,而是正式宣布了一场意外的合作。合作的另一方主角竟是:芬兰电信巨头诺基亚。
中国团队成功研制出新型芯片!特定任务中算力超越顶级GPU千倍!北大Nature神作:攻克模拟计算世纪难题,精度提升至24位
“CPU作为通用‘总指挥’因其成熟与经济性而难以被淘汰。GPU则专注于加速矩阵乘法计算。我们的模拟计算芯片,旨在更高效地处理AI等领域最耗能的矩阵逆运算,是对现有算力体系的有力补充。”
数据中心的未来不属于CPU或GPU的单打独斗,而属于一个由GPU、DPU和高速互联构成的、软硬件一体的“加速计算”架构。 在这个架构里,CPU负责它擅长的部分,而所有高价值、大规模的并行数据处理任务,都将在NVIDIA的平台上完成。这是NVIDIA从一家“芯片公司”,迈向一家“未来计算平台公司”的最关键一步。
基于 NVIDIA Blackwell 的 Jetson Thor 现已发售,加速通用机器人时代的到来
NVIDIA 今日宣布 NVIDIA Jetson AGX Thor™ 开发者套件和量产级模组现已发售。这是一款功能强大的新一代机器人计算机,旨在为制造、物流、交通、医疗、农业和零售等行业的数百万台机器人提供算力支持。
【中国,北京】2025年8月5日,在昇腾计算产业发展峰会上,华为宣布CANN(Compute Architecture for Neural Networks)技术体系及Mind系列工具链全面开源开放。此前,智谱已于7月28日正式开源其新一代基座模型GLM-4.5,其GLM端侧模型已完成与CANN的适配。这标志着国产大模型与计算架构在端云协同方向实现关键突破,国产AI生态正加速迈入深度融合阶段。
惊到了!大神炮轰CUDA:CUDA存致命缺陷,它不是未来!这种新语言将打破英伟达的GPU垄断地位,护城河终会消失!
近日,一位大牛 Thomas Cherickal,发表了一篇博客,阐述了一种新的编程范式。他认为,基于 MLIR 的 Mojo 无疑将取代基于 LLVM 的 CUDA,而且这种方式已经几乎可以在其他任何芯片上运行,包括谷歌TPU、AMD、英特尔以及任何定制的AI芯片!
“第二代HBM”SOCAMM内存模块起势 传英伟达今年将在AI产品中部署80万个
下一代低功耗内存模块 “SOCAMM” 市场已全面开启,英伟达计划在今年为其 AI 产品部署 60 至 80 万个 SOCAMM 内存模块。该产品甚至被业内称为 “第二代 HBM”,随着其在 AI 服务器和 PC 中的应用逐步增长,其大规模出货预计将对内存和 PCB 电路板市场产生积极影响。