试验均采(cǎi )用200G的RDMA网卡和(hé )GPU训练卡,使用All Reduce算子。在不同的智算场(chǎng )景(jǐng )下,将本方案与传统ECMP方案进行对比。试验结果(guǒ )显示,当QP会话数固(gù )定(dìng )时,从(cóng )32卡到(dào )128卡,随着算力规模的增加,传统的ECMP方(fāng )案因哈希不均(jun1 )导致拥塞概(gài )率和(hé )性能劣化加剧,而(ér )基于分(fèn )布式解耦的网络能力(lì )增(zēng )强技术方案因采用(yòng )信元交换机制避免了(le )拥(yōng )塞的产生(shēng ),带宽利用率相对稳定,约(yuē )为95%,更适用于大规模(mó )的AI训练;当(dāng )算力(lì )规模固定,QP会话较少时,基于分(fèn )布式解耦(ǒu )的网络能力增强(qiáng )技术方案的优(yōu )势比较(jiào )明显,负载均衡的效果更优,可较(jiào )好地适用于商(shāng )用场景。
Copyright © 2008-2018 国产A精彩视频精品视频下载|久久中文字幕人妻熟女22页|成人午夜免费无码视频在线观看|97香蕉超级碰碰碰久久兔费|免费观看欧美成人AA片爱我多深|极光剧场