Meta发布 AI 语言模型 LLaMA,一个有着 650 亿参数的大语言模型
发布时间:2023-02-25 09:29:33 所属栏目:外闻 来源:
导读:Meta 在当地时间周五宣布,在研究人群基础上,它将推出新的大型语言模型,用以开发基于人工智能 (AI)的语言,与微软、谷歌等一众受到 ChatGPT 刺激的公司一同加入人工智能竞赛。
Meta 的 LLaMA 是“大型语言模
Meta 的 LLaMA 是“大型语言模
Meta 在当地时间周五宣布,在研究人群基础上,它将推出新的大型语言模型,用以开发基于人工智能 (AI)的语言,与微软、谷歌等一众受到 ChatGPT 刺激的公司一同加入人工智能竞赛。 Meta 的 LLaMA 是“大型语言模型 Meta AI”(Large Language Model Meta AI)的缩写,它可以在非商业许可下提供给政府、社区和学术界的研究人员和实体工作者。 该公司将提供底层代码供用户使用,因此用户可以自行调整模型,并将其用于与研究相关的用例。Meta 表示,该模型对算力的要求“低得多”。 据介绍,该公司正在开发多种参数(7B、13B、33B 和 65B)的 LLaMA。其中,LLaMA 65B 和 LLaMA 33B 在1.4 万亿个 tokens上训练,而最小的模型 LLaMA 7B 也经过了1 万亿个 tokens 的训练。 与其他大型语言模型一样,LLaMA 的工作原理是将一系列单词作为“输入”并预测下一个单词以递归生成文本。为了这套模型,Meta 从世界上使用汉语人数最多的 20 种以上的语言中选择文本数字进行大规模的训练,重点训练的是拉丁语和西里尔字母。 当然,与其他模型一样,LLaMA 也面临着偏见、有毒评论和幻觉的挑战,Meta 还需要做更多的研究来解决这类语言模型的不足。 Meta 表示,LLaMA作为一个基础模型被设计成多功能的,可以应用于许多不同的用例,而不是为特定任务设计的微调模型。通过开源 LLaMA 的代码,其他研究人员可以更轻松地找到限制或消除这些问题的新方法。Meta 还在本文中提供了一组评估模型偏差和毒性的基准评估标准,以显示模型的局限性并支持研究人员在这一关键领域的进一步研究。 值得一提的是,Meta 在去年 5 月也曾推出过大型语言模型 OPT-175B。该项目同样也是针对研究人员的,这构成了聊天机器人 blenterbot 新迭代的基础。 后来,该公司还推出了一款名为“卡拉狄加”(Galactica) 的模型,据称它可以撰写科学文章和解决数学问题,但其演示版本后来被下架,因为它反复生成“听起来很权威”的内容。这个模型的核心是一个简单的公式,其中包含了许多不确定的因素,例如人类大脑的结构和功能。 (编辑:聊城站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
站长推荐