试验均采用200G的RDMA网卡和GPU训练卡(kǎ ),使用(yòng )All Reduce算子(zǐ )。在不同的智算场景(jǐng )下,将(jiāng )本(běn )方案与传统ECMP方(fāng )案进行对比。试(shì )验结果显示,当QP会话数固定时,从32卡到128卡,随着算(suàn )力规模的增加,传(chuán )统的ECMP方案因哈希(xī )不均(jun1 )导致(zhì )拥塞概率和性能劣化加剧,而基(jī )于(yú )分布式解耦的网络能(néng )力增强技术(shù )方案因采用信元交换机制避免了(le )拥塞的产生,带宽(kuān )利用率(lǜ )相对稳定(dìng ),约为95%,更适(shì )用于大规模的AI训练;当算力(lì )规模(mó )固定,QP会话较(jiào )少时,基(jī )于分布式解(jiě )耦的网(wǎng )络能力增(zēng )强技术方(fāng )案的优势比较明显(xiǎn ),负载均衡(héng )的效果更优,可(kě )较好地适用于商用场景。
Copyright © 2008-2018 国产A精彩视频精品视频下载|久久中文字幕人妻熟女22页|成人午夜免费无码视频在线观看|97香蕉超级碰碰碰久久兔费|免费观看欧美成人AA片爱我多深|极光剧场