亚洲资本网 > 栏目首页 > 商品 > 正文
【环球快播报】大模型搅拌机来了,把11个AI的结果融合输出,艾伦研究所团队
2023-06-27 20:44:01来源: 互联网

大模型这么多,到底该用哪一个?并且生成结果时好时坏,怎么破。

现在有一种方法,一招整合各家 LLM 特长,性能值拉满!让你不做选择全都拿捏。


【资料图】

现在通过 LLM-Blender 大模型集成框架,你输入问题,自动帮你排序各家 LLM 结果,然后“融合生成”最佳答案。

就像一个水果榨汁机,各个开源 LLM 代表不同水果,一箩筐放进去,根据不同水果特点,调配比例榨出好喝的果汁。

这个方法不仅可以有效减轻单一 LLM 中偏见错误和不确定性信息,且输出结果比“单用效果最好的 LLM”还要高不少。

对此网友惊呼:简直太赞了!

博采众长,一个大模型搅拌机

现在开源大模型这么多,说到性能也是千差万别。通常我们都会直接选择最好的模型,来 Prompt 结果。

然鹅,这种方法也有一些限制。比如我们无法考虑所有可能的模型输出,并且新的数据可能导致我们选择不同的最佳结果。

现在的方法,要么是直接通过打分对比输出答案,要么也会对不同 LLM 答案进行融合,但整个过程仍会保留有害、或不正确的信息,输出结果相应也会大打折扣。

因此,为了解决这个问题和提高 LLM 的鲁棒性、泛化和准确性,Allen AI 实验室联合南加大和浙江大学的发表最新研究论文。

论文提出一个用集成框架“LLM-Blender”,集合多个开源大模型(LLM)的优势,通过排序和融合生成两种方式,比较不同 LLM 生成结果,然后融合择优输出。

LLM-Blender 主要包含两个模块“PairRanker”和“GenFuser”。

PairRanker 模块是一个 BERT 结构的编码器,通过双向注意机制捕捉输出结果之间的细微差异,然后对候选输出进行排名。

PairRanker 的运行流程是这样的。

首先,它会收集 N 个模型对每个输入的输出,并创建所有可能的输出对。

然后,使用特殊的编码器来比较这些输出对,以确定哪个候选输出更好,捕捉到微小的差异。

在推理阶段,计算一个矩阵,其中包含了所有输出对的比较结果。再根据矩阵确定给定输入的所有输出排名顺序。

最后,选择每个输入中排名最高的候选输出作为最终结果。

GenFuser 模块则是一个基于 Transformer 的编码器-解码器结构,使用单个编码器对输入文本和一些候选者进行编码,然后使用单个解码器解码融合的输出。

值得注意的是,它只将排名靠前的输出结果放入编码器,这样既避免了“噪音”感染,还能提升输出结果质量。

总结一下,LLM-Blender 的运转流程:

PairRanker 比较 N 个 LLM 的输出,然后通过 GenFuser 将它们融合,从排名前 N 的输出中生成最佳结果。

按照论文解释,通过这个运作流程,就能有效筛选并集合生成优质答案。

那么到底效果如何,下面是团队的评估过程。

集成 LLM 结果优于单个 LLM

为了保证可以在大量数据基础上进行评估,团队专门引入基准数据集 MixInstruct,用于在指令跟随任务中对 LLM 的集成模型进行基准测试。

团队对数据集中的 10 万个样本进行训练,5000 个用于验证,5000 个用于测试。然后,在这 11 万个示例上测试 11 个当下热门的开源大模型,比如 Vicuna、OpenAssistant、Alpaca、MPT 等。

根据对多个 LLM 模型在 MixInstruct 数据集上的表现,可以看到不同模型在表现上存在显著差异,各有优劣。其中,Open Assistant、Vicuna 和 Alpaca 是表现最好三个模型,而 Mosaic MPT、StableLM 和 Flan-T5 排名则较低。

其次,实验还得出部分优秀的模型表现并不稳定,许多其他模型的表现都优于它们。

例如,Koala 的平均 GPT-Rank 为 6.76,但大约 40% 的测试结果表明 Koala 产生了更好或同样优于 Open Assistant 和 Vicuna 的结果。

另外也可以看到,在排名工具这部分,与 BARTScore 和 GPT-Rank 的最佳模型 (Open Assistant) 相比,PairRanker 表现出更好的性能。

并且团队表示,使用从 PairRanker 中选出的前三名,并将其作为 GenFuser 的候选。在此基础上,LLM-Blender 展示了预期的卓越性能。尤其是在 GPT-Rank 方面,达到了 3.01,明显超过了最佳模型 Open Assistant 的(3.90)。

在 BERTScore(79.09)、BARTScore(-3.02)和 BELURT(-0.17)三个排名里得分也都不错。

实验证明,通过将 LLM-Blender 框架进行排名和融合,显著提高了 LLM 最终输出结果的质量。

团队提出 LLM-Blender 一个创新的集成框架,通过排名的方式来减少单个 LLM 的弱点,并通过融合生成来整合优势,来提高 LLM 的能力,可以说非常新颖。

不过该方法仍有一些可以优化的地方,比如引入更多的语言模型、使用不同的相似度计算方法等。

研究团队

论文由 Allen AI 实验室联合南加大和浙江大学一同发表,三位作者都来自中国,且都与南加大(USC)有关联。

姜东甫(Dongfu Jiang)是浙江大学计算机工程专业大四学生,即将去加拿大滑铁卢大学读 PhD,此前曾在南加大(USC)做过研究实习生,当时的导师正好是另外两名作者。

任翔(Xiang Ren)是南加大计算机科学系副教授和 INK 实验室主任,在艾伦人工智能研究所研究机器常识,也是谷歌学者。

林禹臣(Bill Yuchen Lin)是现任艾伦人工智能研究所青年研究员,本科在上海交大读计算机,PhD 在南加大也是计算机相关专业。

此外,南加大 NK 实验室、艾伦人工智能研究所的 Mosaic 团队的学者也参与了这一项目。

论文传送门:

https://arxiv.org/abs/2306.02561

参考链接:

[1]https://yuchenlin.xyz/LLM-Blender/#bg

[2]https://twitter.com/billyuchenlin/status/1668666357058277377

本文来自微信公众号:量子位 (ID:QbitAI),作者:尚恩

关键词:

专题新闻
  • 环球百事通!诺基亚经典铃声钢琴-诺基亚经典铃声
  • 【新要闻】打出“分拆+借壳”组合拳,千亿恒力石化力推子公司康辉新材上市_全球百事通
  • 侬会哪能做?陌生人想上门吃饭,上海人是小气还是有边界感? 每日关注
  • 异动快报:比音勒芬(002832)6月27日13点23分触及涨停板
  • 大乐透第072期晒票,山水总相逢,来日皆可期​​​​​​​_微资讯
  • 每日看点!高考考场内只有一名考生!她的成绩出来了

京ICP备2021034106号-51

Copyright © 2011-2020  亚洲资本网   All Rights Reserved. 联系网站:55 16 53 8 @qq.com