AI开源项目

Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark-内存高效的LLM微调基准研究

本项目对零阶优化技术进行了基准研究,重点关注在微调大型语言模型时的内存效率。

本项目对零阶优化技术进行了基准研究,重点关注在微调大型语言模型时的内存效率。
Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark的特点:
1. 内存高效的优化技术
2. 多种优化方法的基准测试

Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark的功能:
1. 以减少内存开销的方式微调大型语言模型
2. 比较不同优化算法的性能

相关推荐

暂无评论

暂无评论...