Chain of Experts (CoE) 是一种在 Mixture-of-Experts (MoE) 模型中实现专家间通信的技术,显著提升了模型的性能和资源利用效率。通过优化专家之间的协作,CoE 减少了数学验证损失,降低了内存使用,并大幅增加了专家组合的可能性。