1.5万亿训练数据,8000输入长度,可商业化!Salesforce开源XGen-7B
智谱AI 和清华大学 KEG 实验室开源了基于 ChatGLM-6B 的多模态对话模型 VisualGLM-6B
一种利用 ChatGLM-6B + langchain 实现的基于本地知识的 ChatGLM 应用。
类ChatGPT开源大语言模型MPT-...
实现92%的GPT4能力的离线版ChatGPT——Vicuña(骆马)
中文语言模型骆驼 (Luotuo),Alpaca-LoRA 的衍生项目
猎户星空-Yi-34B-Chat对话模型Orionstar-Yi-34B-Chat,在C-Eval、MMLU、CMMLU等主流测评集上表现出色,显著领先于国内其他开源对话模型(截止2023年11月)