当前位置:首页 > 热点

「开源王者」Llama4,却让DeepSeek们松了一口气

2025-04-08 01:55 来源:投资界 阅读量:17922   

Llama4 来了。

4月5日,Meta发布了外界期待许久的Llama4系列开源模型,目前它包括Llama 4 Scout、Llama 4 Maverick和Llama 4 Behemoth。三种模型对应不同的使用需求,简单来说:

Llama 4 Scout是可以在单张H100上跑的多模态MoE模型,

Llama 4 Maverick是击败了GPT-4o 和 Gemini 2.0,比DeepSeek v3小但编码和推理能力匹配的“*模型”,

还有一个即将发布的、隐藏在后为所有Llama4系列提供能力的2880亿活跃参数“巨兽”模型Llama 4 Behemoth。

根据它官方发布的介绍,此次Llama4有几个重要的技术亮点。

MoE架构:此次是Llama首次采用混合专家架构,任务执行时仅激活部分参数,显著提升训练和推理效率。

多模态融合:早期融合策略统一处理文本、图像、视频,突破传统多模态模型的分阶段处理限制。

超长上下文:Scout支持1000万Token上下文窗口,通过iRoPE架构实现“短序列训练,长序列泛化”。

部署上,Scout支持单张H100 GPU运行,Maverick需H100 DGX集群,Behemoth则夸张地使用了32000块GPU训练。

后训练策略:采用“轻量级SFT 在线RL 轻量级DPO”流程,减少对齐约束,增强模型探索能力。 引入“自我批判式数据筛选”,利用早期模型Check point检查点过滤低质量训练样本,提升最终性能。

由于Behemoth这个巨大参数的模型此次并没有正式发布,另外两个模型并没有太过让人震惊的突破——尤其在刷新评测榜单这件事已经没那么重要的今天,人们对Llama4的期待在于它的技术思路上是否有新玩意。

从目前官方给的说明来看,它自己总结的几个重要的创新在于:

原生多模态的预训练融合方法

Llama 4 模型设计为原生多模态,通过早期融合无缝整合文本和视觉标记到统一的模型主干中。早期融合是一大进步,使 Llama 能够联合预训练大量未标记的文本、图像和视频数据。Llama 还改进了 Llama 4 的视觉编码器——基于 MetaCLIP——但与冻结的 Llama 模型联合训练,以更好地和LLM结合。

优化MoE专家超参数设置的MetaP;

Llama 开发了一种新训练技术 MetaP,能够可靠设置关键模型超参数,如每层学习率和初始化规模。Llama 发现所选超参数在不同batch size、模型宽度、深度和训练token数中可以很好的匹配。Llama 4 通过在200种语言上预训练,总体的多语言训练token比 Llama 3 多10倍。

对注意力机制做改进,从而突破上下文能力的iRoPE架构;

Llama 4 架构的一个关键创新是使用了交错注意力层,且不使用位置嵌入。此外,我们还采用了推理时注意力温度缩放( inference time temperature scaling of attention)来增强长度和泛化。我们将这种架构称为 iRoPE 架构,其中“i”代表“交错”注意力层,突出了支持“无限”上下文长度的长期目标,“RoPE”则指在大多数层中使用的旋转位置嵌入。

SFT、RL和DPO使用搭配上的新配方

在 Llama 4 中,Llama 通过采用不同方法重构了后训练流程:轻量级监督微调 gt; 在线强化学习(RL) gt; 轻量级直接偏好优化(DPO)。关键经验是,SFT和DPO可能过度约束模型,限制在线RL阶段的探索,导致推理、编码和数学领域的次优准确性。

后训练一个拥有2万亿参数的模型也是一大挑战,需要 Llama 彻底改造配方,从数据规模开始。为*化性能,Llama 不得不修剪95%的SFT数据,以实现质量和效率的必要关注。

为2万亿参数模型扩展RL还需要 Llama 改造底层RL基础设施,因其规模前所未有。Llama 优化了MoE并行设计以提高速度,加快了迭代。Llama 开发了一个完全异步的在线RL训练框架,增强了灵活性。与牺牲计算内存以在内存中堆叠所有模型的现有分布式训练框架相比,Llama 的新基础设施支持将不同模型灵活分配到单独GPU上,根据计算速度平衡多个模型的资源。这一创新使训练效率比前几代提高了约10倍。

这些创新与大家对今天开源模型竞赛的预期相比,可能会略微让人失望。

原生多模态的做法基本依然是行业的常规操作——把其他模态与最强的语言模态在token层面上统一;MetaP背后强调的不同尺寸的高效转化,让人想到诸如面壁智能提出的“densing law”,如何在小一点的参数上做实验,预测出更大参数的表现;对注意力的改进也在过去几个月有诸多尝试,无论是月之暗面的MoBA,DeepSeek的NSA还是MiniMax-01对Lighting Attention的激进的融合,似乎Meta的尝试并没有比这些带来更彻底的效果;而在SFT,RL和DPO的“炼丹”上,也反而让DeepSeek R1的更纯粹的RL方法显得更简洁优雅。

与Llama过往作为开源执旗者时相比,通过开源给社区提供对抗闭源模型强大的新方法的意味少了很多,结合其他更彻底的开源模型公布的各种技术来快速交出一个作品来先跟上*者的意味更强了。这次的模型与此前Llama2和Llama3发布时的影响完全不同,它不是碾压式*的发布,也许之后的Behemoth才是主菜,这次只是开胃菜。但目前看来,Behemoth的*亮点可能还是在它背后的算力资源,Meta表示,Behemoth使用FP8和32K GPU训练,实现了390 TFLOPs/GPU。

这些都在提示这一次Llama4发布的仓促。这次Llama在行业对推理模型需求爆炸,对很看重编程能力的AI Agent类产品兴趣浓厚的时候,没有先发布推理模型,而是继续通过做大底座模型来提高推理和编程能力。在通过Scout强调部署便利的同时,却又没有可以在本地运行的尺寸的模型。

整体看来,Llama4像是Meta先给自己一个“台阶”——在DeepSeek爆火之前,它坚持不用MoE架构,这次算是完成了纠错。

另外有意思的是,在模型发布后,行业里活跃的几家竞对也“讨论”起了它的发布时间——这次发布选择放在了周末。有人发现它在Github上最初提交的计划时间是周一,以至于不少人怀疑Meta是为了避免下周被某个更强模型的发布盖过风头。

有人猜测DeepSeek ,Qwen和DeepMind的更强模型都会在下周出现,而Llama4目前的实力已经无法与它们争夺注意力。

“在周六发布有一个好处,至少没人在当天会想截胡你。”Gemini团队活跃的研究者Logan Kilpatrick调侃道。千问的林俊旸则回复了一个“hahahah”。

在Llama3*开源竞争的时候,你很难想象它的对手会如此戏虐地做出反应。

从*变回追赶者,Meta AI看来有得忙了。

免责声明:该文章系本站转载,旨在为读者提供更多信息资讯。所涉内容不构成投资、消费建议,仅供读者参考。

热门推荐

  • 年度家庭电动车!BYDATTO3首获比利时汽车大奖
    年度家庭电动车!BYDATTO3首获比利

    当地时间12月9日,比利时知名汽车杂志《VAB》宣布比亚迪ATTO3为“比利时2022年家庭电动车”,这也是比亚迪ATTO3进入欧洲市场仅两个月后首次获得欧洲汽车大奖。Byatto3获得比利时“年度家用电动汽车”奖。比利时第三大杂志《VAB...

  • “中国元素”闪耀世界杯卡塔尔亮起“奇瑞红”
    “中国元素”闪耀世界杯卡塔尔亮起“奇瑞红

    2022FIFA世界杯卡塔尔2022锦标赛正在如火如荼的进行中,赛事内外的“中国元素”也成为世界杯的重要组成部分。作为连续19年位居中国品牌乘用车出口第一的“中国名片”,奇瑞集团旗下各品牌也以自己的方式在卡塔尔大放异彩,赢得了全球用户和车迷...

  • 一马当先东风1000km长续航固态电池有望2024年上半年量产
    一马当先东风1000km长续航固态电池有

    随着新能源汽车产业的快速发展,销量连年增长,但安全性、续航里程、动力电池回收等问题仍是行业面临的痛点。近年来,固态电池作为锂离子电池的终极技术路线之一,逐渐成为全球各大车企及相关产业链争夺的焦点。作为国内最早自主研发固态电池领域的车企,经过...

  • 连续六次携手世界杯北京现代用绿茵情结诠释进取和突破
    连续六次携手世界杯北京现代用绿茵情结诠释

    初冬如夏,2022年卡塔尔2022年国际足联世界杯正在阿拉伯半岛如火如荼地进行。来自亚洲的球队昂首上阵,浴血奋战,现场有无数高光时刻:沙特击败梅西领衔的阿根廷,日本击败世界冠军西班牙、德国,韩国击败c罗领衔的葡萄牙...这些辉煌的成绩足以让...

  • 中国品牌乘用车表现亮眼智能化或将是“下半场”竞争关键
    中国品牌乘用车表现亮眼智能化或将是“下半

    目前汽车行业批发增速放缓,市场整体压力明显。中汽协副秘书长陈世华在9日的月度新闻发布会上表示,“11月汽车产销略显疲软,环比、同比均有所下降,下滑趋势明显,整体表现不及预期。”不过,中国品牌乘用车的表现依然亮眼。陈世华表示,“11月份,中国...