中文Mixtral-8x7B,基于Mistral发布的模型Mixtral-8x7B进行了中文扩词表增量预训练,旨在提升中文文本生成和理解能力,支持多种自然语言处理任务。
Frame Semantic Transformer是一个基于T5模型的框架语义解析器,利用FrameNet进行深度语义分析,支持多种自然语言处理任务,具备灵活的模型训练和微调能力,能够高效地进行推理。
Llama 2的中文微调版本,旨在提高中文文本生成和理解的能力。该模型基于Llama 2架构,经过专门的中文数据训练,能够更好地处理各种中文语境,适用于对话系统、内容创作、文本分析等多种应用场景。
LLM Giraffe🦒可以用来扩展LLM的上下文长度,它实现了将LLAMA v1 2K的上下文长度扩展为4K和16K,支持长文本处理,优化上下文管理,易于集成到现有的LLM工作流中。
这是国内第一个真正的开源、可下载、可运行的 LLaMA2 模型,提供中文版 Llama2模型及中英文 SFT 数据集,兼容适配所有针对原版 llama-2-chat 模型的优化。
一款支持 GPT 以及国产大语言模型通义千问、文心一言等,支持 Stable Diffusion 文生图、图生图、超分辨率、图片上色的全能型 APP。
EnergeticAI是为无服务器功能优化的TensorFlow.js,提供快速冷启动、小模块大小和预训练模型,非常适合在Node.js应用中集成开源AI。
Axis Tour是一种方法,用于优化ICA转换后词嵌入中轴的顺序。通过最大化轴的语义连续性,可以改善词嵌入空间的清晰度。实验证明,与PCA和ICA相比,Axis Tour构建的低维嵌入具有更好的性能。
RWKV是一种新型模型,它不需要注意力机制,而是将递归神经网络和Transformers的优点结合在一起。
一个基于斯坦福的 Alpaca,并进行了中文优化的大语言模型项目,愿景是成为能够帮到每一个人的LLM Engine。
一套用于在Google Cloud Vertex AI和Google Kubernetes Engine上训练和部署模型的Docker镜像