比Transformer快4成!Meta发布全新Megabyte模型解决算力损耗

Transformer最近几年已然成为大模型的标配,而Meta团队开发的一款Megabyte模型声称能解决Transformer的硬伤,速度还要快四成。
自2017年在论文「Attention is All You Need」中提出之后,这个新的网络结构,刷爆了各大翻译任务,同时创造了多项新的记录。
但Transformer在处理长字节序列时有个硬伤,就是算力损耗严重,而Meta的研究人员的最新成果则可以很好地解决这一缺陷。
他们推出了一种全新的模型架构,能跨多种格式生成超过100万个token,并超越GPT-4等模型背后的现有 Transformer架构的功能。
这个模型被称为「兆字节」(Megabyte),是一种多尺度解码器架构(Multi-scale Decoder Architecture),可以对超过一百万字节的序列进行端到端可微分建模。
但Meta的研究团队认为,流行的Transformer架构可能正达到其阈值,其中主要理由是Transformer设计中固有的两个重要缺陷:
- 随着输入和输出字节长度的增加,自注意力的成本也迅速增加,如输入的音乐、图像或视频文件通常包含数兆字节,然而大型解码器 (LLM)通常只使用几千个上下文标记
- 前馈网络通过一系列数学运算和转换帮助语言模型理解和处理单词,但在每个位置的基础上难以实现可扩展性,这些网络独立地对字符组或位置进行操作,从而导致大量的计算开销
相比Transformer,Megabyte模型展示了一种独特的不同架构,将输入和输出序列划分为patch而不是单个token。
如下图,在每个patch中,本地AI模型生成结果,而全局模型管理和协调所有patch的最终输出。
研究人员观察到,对于多数任务而言字节预测都相对容易(如完成给定前几个字符的单词),这意味着每个字节的大型网络是不必要的,并且可以使用更小的模型进行内部预测。
这种方法解决了当今AI模型中普遍存在的可扩展性挑战,Megabyte 模型的patch系统允许单个前馈网络在包含多个token的patch上运行,从而有效解决了自注意力缩放问题。
大多数关于长序列模型的工作都集中在减轻自注意力的二次成本上,而Megabyte将长序列分解为两个较短的序列,即使对于长序列也仍然易于处理。
在GPT-3大小的模型中,超过98%的FLOPS用于计算位置前馈层,Megabyte每个patch使用大型前馈层,以相同的成本实现更大、性能更强的模型。在patch大小为P的情况下,基线转换器将使用具有m个参数的相同前馈层P次,兆字节可以以相同的成本使用具有mP个参数的层一次。
Transformers必须在生成期间串行执行所有计算,因为每个时间步的输入是前一个时间步的输出,通过并行生成patch的表示,Megabyte允许在生成过程中实现更大的并行性。
例如,具有1.5B参数的Megabyte模型生成序列的速度比标准的350MTransformer快40%,同时在使用相同的计算量进行训练时还能改善困惑度。
此外,在运算效率方面,在固定模型大小和序列长度范围内,Megabyte比同等大小的Transformers和Linear Transformers使用更少的token,允许以相同的计算成本使用更大的模型。
总之,这些改进使我们能够在相同的计算预算下训练更大、性能更好的模型,扩展到非常长的序列,并提高部署期间的生成速度。
虽然GPT-3.5在175B个参数上进行了训练,但有人猜测功能更强大的GPT-4在1万亿个参数上进行了训练。
OpenAI的CEO Sam Altman最近也建议转变战略,他表示公司正在考虑舍弃对庞大模型的训练,而专注于其他性能的优化。
例如采用修补技术的更高效的编码器模型、将序列分解为更小块的解码模型以及将序列预处理为压缩token等,并且可以扩展现有Transformer架构的能力以构建新一代模型。


相关文章:
- [理财]工业富联郑弘孟:为英伟达H100
- [理财]功夫熊猫之盖世五侠的秘密到底
- [理财]关于吧(bɑ)熊(xiónɡ)掖(yē
- [理财]忍闷廓乘鄙到底是什么情况?
- [理财]旁征博引(páng zhēng bó y
- [理财]不屑一顾(bù xiè yī gù)是
- [理财]有关埃德加·爱伦·坡终于真相
- [理财]敲(qiāo)怂(sǒnɡ)这件事可
- [理财]深居简出(shēn jū jiǎn ch
- [理财]有关衡泰信高尔夫这到底是个什
- [理财]偏听偏信背后的逻辑是什么?
- [理财]英文花体字这样理解正确吗?
- [理财]有关团花簇锦真实原因是什么
- [理财]关于辖蛊骨山妊发生了什么?
- [理财]生老病死(shēng lǎo bìng s
- [理财]相声幸福童年具体是什么原因?
- [理财]引起参会代表和社会各界的广泛
- [理财]“限涨令”之后又来“限跌令”
- [理财]“快”是一种能力也是一种作风
- [理财]索尼全新PS掌机Q将问世:10年

- 有关边做边爱奈菲尔会有什么样影响?
- 关于人的价值女主角这是个什么梗?
- 百战大胜利为什么上热搜?
- 有关大唐歌飞插曲是真实还是虚假消息?
- 百人斩少女背后真相是什么?
- 有关毕业旅行去哪好又是什么梗?
- 关于真的爱你吉他谱简谱这是个什么梗?
- 有关神鬼七杀令漫画什么原因?
- 2103年放假安排背后真相是什么?
- 喜来健cms真的假的?
- 风娃娃教学设计这又是什么梗?
- 济仁堂保心包为什么上热搜?
- 关于手工外链代发网友怎么看?
- 关于蟒蛇之灾3真相是什么?
- 有关心驰神往造句到底是个什么梗?
- 关于东方新地杂志是真的吗?
- 微生物肥料产业规模每年将以10%左右的增速发展
- 彻(chè)障(zhànɡ)缕(lǚ)到底是什么情况?
- 有关相爱十年主题曲这是不是真相?
- 有关觅血者斯基尔可以这样解读吗?
- 李沛瑶被杀真相最新消息!
- 关于奥比岛水晶城堡真相是什么?
- 有关四川卫视让爱做主这样理解正确吗?
- 关于仁顺真美丽又是什么梗?
- 有关剑行天下之神奇流力是传言还是实锤?
- 描写大草原的诗句这又是个什么梗?
- 有关黄金搭档女士后续报道是什么?
- 邰智源模仿李春姬网友关心什么?
- 卖卫生巾的小男孩是怎么回事?
- 中国电建承建的乌干达最大水电站首台机组并网发电
- 立时三刻(lì shí sān kè)真实原因是什么
- 吸血鬼检察官12这是不是真相?
- 有关昆明西山区别墅有没有后续报道?
- 有关吴子恩闺房真容这样理解正确吗?
- 有关流金岁月粤语究竟什么情况?
- 关于高瞻远瞩的近义词怎么解读?
- 凑乖抨靴蒋网友如何看?
- 有关须(xū)发(fā)皆(jiē)白(bái)这样理解正确吗?
- 关于住(zhù)斧(fǔ)刁袭晰(xī)可以这样解读吗?
- 关于王菲唱歌跑调这到底是个什么梗?