AnyCores 是一个深度学习编译器,旨在通过优化深度神经网络的性能来降低计算成本,提供超过10倍的加速效果。
catgrad是一个基于范畴论的深度学习编译器,它不使用autograd进行训练,而是将模型的反向传播编译为静态代码。这意味着训练循环可以在不需要深度学习框架的情况下运行,甚至不需要catgrad本身。该项目支持多个编译目标,包括Python/numpy和C++/GGML等,从而提供更高的灵活性和性能。