免费获客网站、免费获客平台、免费产品获客【风起获客】风起获客
  • 首页
  • 供应商
  • 采购商
  • 找企业
  • 找产品
  • 论坛
登录 / 注册

怎么提高注意力和专注度,把注意力计算丢给CPU,大模型解码吞吐量提高1.76~4.99倍

youfen1115
2025-09-08
6
分享

专业小程序设计开发——助力新电商新零售

电话+V:159999-78052,欢迎咨询怎么提高注意力,[小程序设计与开发],[小程序投流与推广],[小程序后台搭建],[小程序整套源码打包],[为个体及小微企业助力],[电商新零售模式],[小程序运营推广及维护]

一、怎么提高注意力和专注度

提高注意力和专注度的方法主要包括以下几点:

  1. 保持充足的睡眠:每晚保证7至9小时的高质量睡眠,有助于大脑恢复精力,提高注意力和专注度。

  2. 饮食均衡:避免高糖和加工食品,摄入富含Omega3脂肪酸的食物以及富含抗氧化剂的水果和蔬菜,有助于稳定血糖,保持大脑功能。

  3. 定期锻炼身体:每周至少进行150分钟的中等强度运动,可以促进大脑释放神经生长因子,增强记忆力和认知能力。

  4. 规律作息:设定固定的时间起床和睡觉,调整身体的生物钟,提高注意力。避免熬夜,保持良好的作息习惯。

  5. 创造安静舒适的环境:选择安静的环境工作或学习,使用隔音耳机或耳塞减少干扰,提高专注度。

  6. 设定明确的目标和任务分解:将大目标拆分为多个小目标,逐一完成,使用番茄钟等时间管理工具提高效率。

  7. 练习冥想或瑜伽:冥想和瑜伽有助于放松身心,调整呼吸,提高专注力。

  8. 避免多任务处理:一次只关注一项任务,提高完成质量和工作效率。

  9. 减少过度使用电子设备:设定每天使用电子设备的时间限制,减少信息过载,保持大脑清醒。

  10. 保持好奇心和兴趣:对学习内容感兴趣,提高学习的积极性,增强注意力。尝试不同的学习方法,找到适合自己的方式。

  11. 定期回顾和反思:每周花时间回顾一周的学习和工作情况,评估自己的进步,发现问题并做出调整。

二、怎么能快速提高注意力

要快速提高注意力,可以采取以下措施:

1.远离干扰因素放置手机远离视线:工作或学习时,将手机放在远离自己的位置或关闭,以减少对注意力的干扰。

2.专注自我,不受外界影响避免关注周围人与事:锻炼自己不去关注周围的人和事,专注于当前的任务,从而提高注意力。

3.学会自我屏蔽外界干扰忽略外界信号:尽管无法完全排除所有干扰因素,但要学会自我屏蔽外界的影响,如忽略身边的声音和干扰。

4.排除内心杂念深呼吸放松:当注意力不集中时,闭上眼睛,深呼吸,努力排除心中的杂念,使注意力重新集中。

把注意力计算丢给CPU,大模型解码吞吐量提高1.76~4.99倍

北京

CPU+GPU,模型KV缓存压力被缓解了。

来自CMU、华盛顿大学、MetaAI的研究人员提出MagicPIG,通过在CPU上使用LSH(局部敏感哈希)采样技术,有效克服了GPU内存容量限制的问题。

网页版奇迹_经典全新巨制_VIP免费送_10倍挂机经验

精选内容.

与仅使用GPU的注意力机制相比,MagicPIG在各种情况下提高了1.76~4.99倍的解码吞吐量,并在检索和推理任务中实现了更高的下游准确率,优于Quest等现有技术。

概括而言,这项研究主要贡献有两点:

1、相比于其他的稀疏注意力(SparseAttention),MagicPIG基于采样/估计而非搜索,提升了推理质量。

2、研究把解码阶段注意力模块的计算和哈希表卸载到CPU上,探索了异构计算的可能性,并且提升了吞吐量,有望降低实际模型部署成本。

下面具体来看。

KV缓存限制了GPU高效利用

在长上下文大模型(LLM)的推理过程中,KV缓存(Key-ValueCache)成为关键瓶颈。KV缓存主要用于存储中间的注意力键和值,从而避免重复计算。

然而,其显存占用随着批量大小和序列长度的线性增长而迅速增加,这严重限制了GPU的批量处理能力,导致计算资源无法被充分利用。

以NVIDIAA100-40GBGPU为例,在处理Llama-3.1-8B模型且上下文长度为128k时,仅支持单个请求,且近一半的解码时间都消耗在访问KV缓存上,GPU利用率明显不足。

此外,推理过程中采用的一些策略,如多样性生成(Best-of-N)和长链式推理(LongChain-of-Thoughts),会进一步增加生成的Token数量,加剧显存压力,导致推理效率进一步下降。

TopKAttention的问题

众所周知,注意力机制本质上具有稀疏性,因此动态稀疏注意力和基于TopK的近似方法得到了广泛研究。

然而,这些方法往往伴随着显著的质量下降问题。

目前已有的KV缓存压缩技术,如Quest、H2O和Loki,主要通过筛选出KV缓存中注意力得分最高的子集来提高效率。然而,尽管这些方法在实践中表现出一定的效果,基于TopK的注意力依然是一种存在偏差的近似方法,且缺乏理论上的严格保障。

这种不足限制了其在高精度场景中的广泛应用。

下图显示,即使是精确的TopK注意力机制也会导致显著的估计误差和下游任务性能下降。

这一问题在需要高上下文利用率的复杂任务中尤为突出,例如聚合任务、常用词提取(CWE)、高频词提取(FWE)以及逻辑推理任务。在这些场景中,基于TopK近似方法的性能下降尤其严重。

视频素材网:高清正版视频素材库

精选内容.

以下几点观察揭示了为何TopK注意力机制无法始终有效工作。

这些观察不仅解释了注意力机制的行为,还可能对模型训练具有重要意义:

1、首个输入token(注意力汇聚点,sink)的隐藏状态(包括但不限于键和值状态)几乎不随输入变化而改变。(见左图,在采样的输入中,其最小相似度均高于0.99)

2、键状态的中心方向在不同输入句子中保持稳定。(见中图,相似度均高于0.9)

3、键状态的中心与汇聚点token的键状态几乎相反。(见右图,-0.9至-0.8之间)

这些现象为理解注意力机制提供了新的视角,同时也表明传统的TopK近似方法在某些场景下可能存在局限性。

为了解决这一问题,研究提出了一种基于采样而非搜索TopK键值缓存的新方法。

算法:基于采样的注意力估计

与仅依赖注意力分数最高的键值对相比,融入基础分布信息可以显著提高估计的准确性。

研究将这一问题视为采样中的偏差校正问题。在生物学、社会学和机器学习等领域,无偏且高效的采样技术已被广泛研究,并具有坚实的理论保障。

如图所示,基于注意力分数按比例进行采样(即所谓的OracleSampling,研究把注意力模块的输出看成value向量的期望值,对应的分布是注意力得分)相比于传统的TopK选择方法,其估计误差要小得多,最多可降低4倍。

切割高爆2025年度热血新游切割高爆版开始游戏>>

精选内容.

这表明采样技术在注意力近似中的潜力。

从注意力得分中采样,在实际中不可行。重要性采样(ImportanceSampling)允许从一个已知分布中抽取样本1,2,…,B,来估计未知分布的期望。

最终的输出由下式给出:


重要性采样要求和的峰值对应以降低估计方差,为此,研究使用局部敏感哈希(LSH)来生成采样概率。

需要指出的是,因为存在Softmax(注意力得分需要归一化),所以研究实际上试图近似的是自归一化重要性采样。

网页版传世新开_网页玩传世_传世网页版_复古经典传世

精选内容.

系统:将注意力计算和哈希表放在CPU上

除了精度下降的问题外,受限的GPU显存容量也限制了现有动态KV缓存压缩方法(如Quest和Loki)在许多场景中的适用性。

与此同时,像DeepSpeed-Zero-Inference和FastDecode这样的技术展示了将KV缓存和注意力计算卸载到CPU上的潜力。

CPU的内存带宽大约是GPU显存带宽的10%-20%,这引出了一个自然的问题:

能否在不牺牲精度的前提下,将注意力计算中的内存访问量减少10倍?

通过利用采样算法,例如MagicPIG中基于LSH(局部敏感哈希)的采样技术进行注意力估计,研究大幅降低了内存访问量。这种方法等效地提升了CPU的内存带宽,使得在维持精度的情况下实现高效的注意力计算。

论文的系统设计扩展了以往的工作,将大语言模型(LLM)的解码分为以下四个部分:

  • 参数计算:包括所有线性投均在GPU上运行。
  • 注意力计算:涉及公式,该部分在CPU上运行。
  • 随机投影:在生成过程中,对于每个执行KxL次随机投影以生成哈希码。由于所有注意力头可以共享相同的随机投影器,内存开销较小(在实际实现中约为400KB)。实验中K=9或10,而L为数百,因此该步骤主要受计算限制,放置在GPU上运行。
  • 检索:需要在L个哈希表中查找q的哈希码。这部分计算开销非常轻量,但预构建的哈希表占用的内存较大,因此更适合放置在CPU上运行。通过上述任务分区,可以支持更大规模的K和L哈希表,而无需担心哈希码计算和哈希表存储的开销。
  • 实验

    研究从准确率和推理速度两个方面来评估MagicPIG系统的能力。

    图片中的百分比为实际采样的KVcache的数量,对于MagicPIG而言,K10L150≈2%,K10L170≈2.5%。

    长文本RULER

    以Llama-3.1-8B-Instruct为例,MagicPIG在检索和推理任务中比Quest(稀疏注意力的SOTA基线)实现了更高的下游准确率。

    新疆什么时候去旅游最合适(实用版)-建议收藏

    精选内容.

    推理速度和吞吐量

    在L20+Intel8563C上测试吞吐量,MagicPIG与仅使用GPU的注意力机制相比,在各种情况下提高了1.76~4.99倍的解码吞吐量。

    整体而言,MagicPIG是将经典的哈希算法和高维向量估计用到LLM解码上的尝试。

    接下来,研究将支持更加高效的局部敏感哈希算法,并希望进一步降低LLM部署成本,探索异构计算的可能性。

    【WINDRISES MINIPROGRAM PROMOTION】尊享直接对接老板

    电话+V: 159999-78052

    专注于小程序推广配套流程服务方案。为企业及个人客户提供了高性价比的运营方案,解决小微企业和个体拓展客户的问题

    怎么提高注意力
    相关帖子
    • 01
      天加冷水机组的服务密码,水冷冷水机设备组成、常见故障与选型方法
      419
    • 02
      时代少年团谁收入最多,3亿换一个点头?发妻病逝仅1年娶小25岁模特,如今身价高达3000亿
      392
    • 03
      我在手机上面申请贷款然后对方打电话给我说贷款审核通过了,叫我带上...线上贷款审核通过了说要线下面签是怎么回事?
      262
    • 04
      加州离波士顿多远,大西洋和太平洋真鳕、大西洋和太平洋鲑鱼,美国海鱼产自两大洋!
      254
    • 05
      紫外线消毒在幼儿园的实用性怎么样?紫外线消毒柜的原理原来是这样的!
      250
    • 06
      蒸汽石锅鱼用完餐锅里的残渣怎么弄的 卫不卫生啊,云南蒸汽石锅烹湖南清江鱼
      246
    • 07
      《猎罪图鉴》:檀健次的画画老师为什么自杀?檀健次16岁就和马思纯演过电影,当年马思纯眼睛还没现在大
      237
    • 08
      电镀废水如何处理,电镀废水含什么成分,一般怎么处理
      224
    • 09
      三浦工业(中国)有限公司上海分公司怎么样?上海浦东农副产品批发市场:抗击疫情不松懈,保障民生不掉队
      222
    • 10
      汽车美容店需要什么设备,绿伞泡沫洗手液,清洁效果好、味道好闻还温和!
      222
    • 11
      长期招聘猪场饲养员,猪场饲养员工资6000-8000是真的吗
      222
    • 12
      迪士尼有几个全世界,全球6个迪士尼排名
      213
    • 13
      二手房过户后发现有租赁合同,购买二手房后发现漏水,法官巧妙化解纠纷
      209
    • 14
      自动存款机能存100元以下的钱吗?存100万利息相差4.7万,咋回事儿?
      201
    • 15
      冷水机使用注意事项有什么?工业冷水机冷冻水温度偏高是什么情况?久阳智能为您解答
      192
    相关广告
    广告图
    联系方式 微信
    引擎网址:
    百度
    雅虎
    360
    谷歌
    必应
    本站导航:
    首页
    找供应商
    找采购商
    找企业
    找产品
    论坛
    站点地图
    友情链接:
    太平洋
    中关村
    阿里巴巴
    凤凰
    新浪
    腾讯
    网易
    搜狐
    百度
    交换链接:
    免费获客网站、免费获客平台、免费产品获客【风起获客】
    粤ICP备2024275337号-1 地址:广州市中山大道西1344号神秘花园1F1002 24小时服务热线:15999978052 联系QQ:1258690818 隐私条款
    广州风起网络科技有限公司 Copyright © 2020 - 2025