全球有7,000多种语言,当前的大型语言模型(LLMS)仅支持数百种语言。基于字典的提示方法可以增强其上的翻译,但是大多数方法都使用所有可用的词典,这可能很昂贵。取而代之的是,在 Token 消费和翻译性能之间取消权衡取舍将是灵活的 ...
同时解释(SI)代表了翻译行业中最艰巨的前沿之一,产品级自动系统长期困扰着棘手的挑战:次要转录和翻译质量,缺乏实时语音产生,多演讲者混乱,尤其是在长期的论述中翻译的语音膨胀。在这项研究中,我们介绍了Seed-LiveInterpret 2.0,这是一种端到端的SI模型,可提供具有语音克隆功能的高保真,超低延迟语音到语音的发电 ...
场景图生成是一项重要的视觉理解任务,具有广泛的视觉应用。尽管最近取得了巨大进展,但由于内在的长尾班分布和较大的阶级变化,它仍然具有挑战性。为了解决这些问题,我们介绍了一种新颖的置信度二分图神经网络,其自适应信息传播机制可用于无偏见的场景图 ...
负面指导 - 明确抑制不需要的属性 - 在扩散模型中,尤其是在少数步骤采样方案中仍然是一个基本挑战。尽管无分类器指导(CFG)在标准设置中效果很好,但由于正面和负分支之间的不同预测,它在积极的采样步骤压缩下失败。我们提出了归一化注意引导(NAG),这是一种有效的,无训练的机制,可在注意空间中使用基于L1的归一化和改进 ...
监督微调是将大型语言模型(LLMS)调整到下游任务的最常见方法,但是完整的微调LLMS需要大量的计算资源。最近,由于其成本效益,已广泛研究了参数有效的微调(PEFT)方法。洛拉(Lora)是使用最广泛的方法之一,假设优化过程本质上是低维的 ...
随着数据量的迅速扩展,分布式机器学习对于解决现代AI系统不断增长的计算需求至关重要。但是,分布式环境中的培训模型在参与者持有偏斜的,非独立的分布(非IID)数据方面具有挑战性。低级适应(LORA)通过个性化低级更新,而不是优化整个模型,启用LORA的分布式学习最大程度地减少了计算和最大化个性化的个性化,从而为该问题提供了有希望的解决方案 ...
低秩适应,也称为 LoRA,通过将原始矩阵重新参数化为两个低秩矩阵的乘积,已成为参数高效微调基础模型的重要方法。尽管效率很高,但与完全微调相比,LoRA 的性能通常较差。在本文中,我们提出 LoRA-Pro 来弥补这一性能差距 ...
我们介绍了指导员,这是一种用于计算给定任务说明的文本嵌入的新方法:每个文本输入都嵌入到解释用例(例如,任务和域描述)的指令 ...