1.5万亿训练数据,8000输入长度,可商业化!Salesforce开源XGen-7B
类ChatGPT开源大语言模型MPT-...
智谱AI 和清华大学 KEG 实验室开源了基于 ChatGLM-6B 的多模态对话模型 VisualGLM-6B
自斯坦福研究者训练一个名为 Alpaca(羊驼)的 70 亿参数开源模型
一个可以使用ChatGPT、miniGPT4和StableLM进行视频聊天的开源代码。
猎户星空-Yi-34B-Chat对话模型Orionstar-Yi-34B-Chat,在C-Eval、MMLU、CMMLU等主流测评集上表现出色,显著领先于国内其他开源对话模型(截止2023年11月)
一种利用 ChatGLM-6B + langchain 实现的基于本地知识的 ChatGLM 应用。