我们介绍 W.A.L. ...
0 0 0 2025/06/09 arXiv:2312.06662v1 ywc
但是,生成大语言模型(LLM)的最新进展非常出色,但是,这些模型产生的文本质量通常揭示出持续的问题。评估这些模型产生的文本质量,尤其是在开放式文本中,一直持续提出重大挑战。在解决这一问题时,最近的工作探索了使用LLM作为评估者的可能性 ...
0 0 0 2025/06/09 arXiv:2403.19305v2 xiaowuxiaowu
使用大型语言模型(LLMS)提供动力的代理商的社会,在解决问题的自动化问题中取得了重大进展。在金融中,努力主要集中在单独的系统上处理特定任务或独立收集数据的多代理框架。但是,多代理系统复制现实世界贸易公司的协作动态的潜力仍然没有得到充实 ...
0 0 0 2025/06/09 arXiv:2412.20138v7 ZYF0219
通过可区分的搜索索引普及,生成检索的新兴范式将经典信息检索问题重新汇总为序列到序列建模任务,放弃外部索引并在单个 Transformer 中编码整个文档语料库。尽管已经提出了许多不同的方法来提高生成检索的有效性,但仅根据规模为100K的文档语料库进行了评估。我们对各种语料库量表的生成检索技术进行了首次实证研究,最终以8个语料库的形式扩展到整个MS MARCO通道排名任务 ...
0 0 0 2025/06/09 arXiv:2305.11841v1 jacky2025
修改音频信号的音高和时间是基本音频编辑操作,并在语音操纵,视听同步以及唱歌语音编辑和综合中进行了应用。到目前为止,使用数字信号处理(DSP)的俯仰转换和时间拉伸方法因其速度和相对较高的质量而受到深度学习方法的青睐。但是,即使是基于DSP的现有方法,用于俯仰转换和时间拉伸的方法会引起降低音频质量的人工制品 ...
0 0 0 2025/06/09 arXiv:2110.02360v1 13724122396
尽管传统的观点表明,更积极地从低质量来源(如常见爬网)始终单调地改善训练数据的质量,但我们发现,积极的过滤实际上可以导致类似GPT类似于GPT的语言模型的广泛下游任务的模型质量下降。我们推测这是因为在真实目标上的代理度量危害性能非常强烈地优化,这表明在尝试更积极地过滤时需要更强大的过滤目标。我们希望这项工作能够详细分析数据集过滤设计选择对未来工作中下游模型性能的影响 ...
0 0 0 2025/06/09 arXiv:2109.00698v2 the_highflyer
我们提出OmniH2O(Omni人类到人类),这是一种基于学习的全身人形近亲和自主权的系统。 OmniH2O使用运动姿势作为通用控制界面,使人类可以用灵巧的手控制全尺寸的类人动物,包括通过VR耳机,口头说明和RGB摄像机使用实时远程操作。 Omnih2O还可以通过从远程手工演示中学习或与GPT-4等边境模型进行整合来实现完全的自主权 ...
0 0 0 2025/06/09 arXiv:2406.08858v1 wchiyu98
为了跟上神经网络的不断增长的性能需求,专门的硬件(HW)加速器正在转向多核和chiplet架构。到目前为止,这些多加速器系统通过在不同核心上输入批处理的不同NN层来利用增加的并行性,以增加吞吐量。但是,在使用延迟关键应用程序的非批量逐层调度进行追求时,这无法完全利用可用的HW资源来朝着边缘的能源效率执行 ...
0 0 0 2025/06/09 arXiv:2212.10612v1 lee_e

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)