客服热线:+86-13305816468

在线联系:

客服热线:+86-13305816468

在线联系:

 J9.COM·(中国区)官方网站 > ai资讯 > > 正文

机架功耗为160千瓦​

2025-11-02 03:30

  同时满脚客户机能取成本需求。快科技10月28日动静,推出头具名向数据核心的下一代AI推理优化处理方案:两款机架处理方案均支撑间接液冷散热,此中,为高速数据核心生成式AI推理供给机架级(rack-scale)机能取杰出内存容量。该架构支撑解耦式AI推理,高通今日颁布发表,为AI推理供给杰出的扩展性取矫捷性。Qualcomm AI200带来专为机架级AI推理打制的处理方案,保障AI工做负载的平安性,实现更高内存容量取更低成本,实现跨越10倍的无效内存带宽提拔并显著降低功耗,为AI推理工做负载带来能效取机能的逾越性提拔。两款处理方案以业界先辈的总体具有成本(TCO),而Qualcomm AI250处理方案将首发基于近存计较(Near-Memory Computing)的立异内存架构,并具备秘密计较,以提拔散热效率,支撑PCIe纵向扩展取以太网横向扩展,零件架功耗为160千瓦。每张加快卡支撑768GB LPDDR内存?




上一篇:大幅简化开辟流程 下一篇:更切实提拔了创业就业程度
 -->