开源语言模型集合:汇集了各种开源语言模型的资源,旨在推动自然语言处理技术的发展,强调模型的透明度和可访问性,方便研究人员和开发者使用
由百川智能开发的一个开源可商用的大规模预训练语言模型,支持中英双语,基于Transformer结构,训练于约1.2万亿tokens,具有70亿参数,提供4096的上下文窗口长度,在标准的中文和英文权威benchmark(C-EVAL/MMLU)上均取得同尺寸最好的效果。
HammerLLM是一个具有1.4B参数的语言模型,提供了简洁高效的训练代码库,同时完全开源了模型权重、环境、代码库和超参数,支持中英文的生成和理解,具有高效的训练和推理能力,适合多种自然语言处理任务。