Frame Semantic Transformer是一个基于T5模型的框架语义解析器,利用FrameNet进行深度语义分析,支持多种自然语言处理任务,具备灵活的模型训练和微调能力,能够高效地进行推理。
中文Mixtral-8x7B,基于Mistral发布的模型Mixtral-8x7B进行了中文扩词表增量预训练,旨在提升中文文本生成和理解能力,支持多种自然语言处理任务。
Hunyuan-Large是腾讯推出的大型MoE(Mixture of Experts)模型,拥有3890亿参数和520亿激活参数,是业界目前最大的开源Transformer基础MoE模型,专注于自然语言处理和长文本理解。
Stanford Alpaca是一个基于大规模数据训练的自然语言处理模型,支持多种任务,如文本生成、理解、推理及对话系统等。
GPT-Minus1是一个通过随机替换文本中的单词为同义词来帮助迷惑GPT的工具。它旨在通过引入微妙的变化来增强文本生成模型的性能和准确性。用户只需输入文本并点击'Scramble'按钮,该工具就会随机替换单词,从而创建修改后的文本版本,用户可以使用该文本来迷惑GPT或其他文本生成模型。
这是国内第一个真正的开源、可下载、可运行的 LLaMA2 模型,提供中文版 Llama2模型及中英文 SFT 数据集,兼容适配所有针对原版 llama-2-chat 模型的优化。
PyLLMCore是一个提供与大型语言模型轻量级接口的Python库,旨在简化与LLM的交互,使开发者能够轻松集成和使用各种语言模型。
该数据集包含从播客“津津乐道”的 281 集中提取的 18,663 个中文问答对。使用 OpenAI Whisper 转录工具提取字幕,并使用 GPT-3.5 生成问答对。
AnythingLLM是您一直寻找的终极全能桌面AI应用和助手。它包含内置的LLM、RAG、AI代理,甚至自定义工具,旨在提高您的生产力,同时在您的桌面上完全本地和私密运行。
刚发布的 Llama 3.1 405B 是一款先进的 AI 模型,提供多种功能和应用场景。
siliconflow提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型