同时生成模型写入生成结果,同时阅读流输入输入,这是决策者确定适当的输出时间。现有的同时发电方法通常采用传统的编码器架构,并通过复杂的动态编程技术学习生成和决策能力。尽管LLM在文本生成方面表现出色,但他们在通过传统培训方法中扮演决策者的角色面临挑战,从而限制了他们同时发电的探索 ...
0 0 0 2025/04/23 arXiv:2501.00868v1 fucs
元学习已成为一种趋势技术,可以解决一些播放文本分类并实现最先进的表现。但是,现有解决方案在很大程度上依赖于词汇特征及其分布签名对培训数据的开发,同时忽略了该模型适应新任务的能力。在本文中,我们提出了一个新颖的元学习框架,该框架与对抗性域自适应网络集成在一起,旨在提高模型的自适应能力并为新类生成高质量的文本嵌入 ...
0 0 0 2025/04/23 arXiv:2107.12262v1 15966829631
近似K最近的邻居(AKNN)搜索是一个基本且具有挑战性的问题。我们观察到,在高维空间中,几乎所有AKNN算法的时间消耗均由距离比较操作(DCO)的时间消耗。对于每个操作,它都会扫描对象的完整尺寸,因此在线性时间wrt中运行 ...
0 0 0 2025/04/23 arXiv:2303.09855v1 sparkliang
最新的轻巧图像字幕使用检索到的数据主要关注文本提示。但是,以前的作品仅将检索到的文本作为文本提示,而视觉信息仅依赖于剪辑视觉嵌入。由于这个问题,有一个限制,即提示中固有的图像描述在视觉嵌入空间中没有充分反映 ...
0 0 0 2025/04/23 arXiv:2412.19289v3 hynj
级联和投机解码是提高语言模型推理效率的两种常见方法。两种方法都涉及不同大小的模型,但是通过根本不同的机制:Cascades采用延期规则,仅调用较大的模型,仅用于“硬”输入,而投机解码则使用投机性执行来主要在并行验证模式下调用较大的模型。这些机制提供了不同的好处:从经验上讲,喀斯喀特提供了更好的成本质量折衷,通常比大型模型差不多,而从理论上讲,投机解码可保证质量中性的保证 ...
0 0 0 2025/04/23 arXiv:2405.19261v2 lixinghe
图像字幕的最新进展探讨了仅文本训练方法,以克服配对图像文本数据的局限性。但是,现有的纯文本培训方法通常会忽略在培训期间使用文本数据和在推理过程中使用图像之间的方式差距。为了解决这个问题,我们提出了一种称为图像样检索的新颖方法,该方法将文本功能与视觉上相关的功能保持一致,以减轻模态差距 ...
0 0 1 2025/04/23 arXiv:2409.18046v1 hynj
设计面向任务的对话系统是一个具有挑战性的研究主题,因为它不仅需要生成满足用户请求的话语,而且还需要确保可理解性。许多以前的作品都用监督学习(SL)培训了端到端(E2E)模型,但是,带注释的系统话语的偏见仍然是一种瓶颈。强化学习(RL)通过使用非差异评估指标来处理问题(e ...
0 0 0 2025/04/23 arXiv:2006.06814v4 zhulixianghuan
量化模型权重对于降低大型模型的通信和推理成本至关重要。但是,量化模型 - 尤其是在INT4或INT2等低精确度中 - 需要在模型质量上进行权衡;尤其是INT2已知会严重降低模型质量。因此,从业人员通常被迫维持具有不同量化水平的多个模型,或提供最能满足质量延迟权衡的单一模型 ...
0 0 0 2025/04/23 arXiv:2502.06786v3 magicp

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)