1.5万亿训练数据,8000输入长度,可商业化!Salesforce开源XGen-7B
Stability AI 发布的 5 套经过开源数据集微调的对话智能体模型
一个由专家精选的多模态大语言模型(MLLM)列表
一种利用 ChatGLM-6B + langchain 实现的基于本地知识的 ChatGLM 应用。
自斯坦福研究者训练一个名为 Alpaca(羊驼)的 70 亿参数开源模型
基于 AI 的 AWS 文档搜索和聊天
SeamlessM4T是首个一体化AI翻译大模型,支持100种语音、语言翻译,可执行语音到文本、语音到语音、文本到语音和文本到文本的多模式翻译任务。