1.5万亿训练数据,8000输入长度,可商业化!Salesforce开源XGen-7B
Stability AI 发布的 5 套经过开源数据集微调的对话智能体模型
一种利用 ChatGLM-6B + langchain 实现的基于本地知识的 ChatGLM 应用。
自斯坦福研究者训练一个名为 Alpaca(羊驼)的 70 亿参数开源模型
中文语言模型骆驼 (Luotuo),Alpaca-LoRA 的衍生项目
微软开源TypeChat库,给大语言模型换种提示,一行代码安装
实现92%的GPT4能力的离线版ChatGPT——Vicuña(骆马)