在此报告中,我们介绍了Gemini Embedding,这是一种最先进的嵌入模型,该模型利用Geamini(Google最有能力的大语言模型)的力量。利用双子座固有的多语言和代码理解能力,双子座嵌入功能可产生高度概括的嵌入文本,这些文本涵盖了许多语言和文本方式。双子座嵌入产生的表示形式可以预先计算并应用于各种下游任务,包括分类,相似性,聚类,排名和检索 ...
0 0 0 2025/04/14 arXiv:2503.07891v1 zxykbz
视觉异常检测是一项高度挑战性的任务,通常被归类为一级分类和分割问题。最近的研究表明,学生教师(S-T)框架有效地解决了这一挑战。但是,大多数S-T框架仅依靠预先训练的教师网络来指导学生网络学习多尺度相似的功能,从而忽略了学生网络的潜力,可以通过多尺度功能融合来增强学习 ...
0 0 0 2025/04/14 arXiv:2501.12104v3 lzx
BM25是一种广泛使用的词汇搜索算法,尽管预先训练和大型语言模型(PLMS/LLMS)仍在信息检索中至关重要。但是,它忽略了查询文档的相似性,并且缺乏语义理解,从而限制了其性能。我们重新访问BM25并引入BMX,这是BM25的新型扩展,结合了熵加权的相似性和语义增强技术 ...
0 0 0 2025/04/14 arXiv:2408.06643v2 cormus
随着大型文本到语音(TTS)模型的开发和培训数据的扩展,最先进的TTS系统取得了令人印象深刻的性能。在本文中,我们提出了wenetspeech4tts,这是一种源自开源的wenetspeech数据集的多域普通话语料库。根据文本到语音任务量身定制,我们通过调整段边界,增强音频质量并消除每个段中的扬声器混合来完善WenetsPeech ...
0 0 0 2025/04/14 arXiv:2406.05763v3 13724122396
gpt-3等大型语言模型(lm)具有惊人的上下文学习能力,lm从这些示例中学习,而无需明确地进行学习预训练。因此,尚不清楚什么能够实现情境学习... ...
0 0 0 2025/04/14 arXiv:2111.02080v6 rayjue
常规的无监督域适应性(UDA)假定训练数据是从单个域中采样的。这忽略了从多个来源收集培训数据的更实际的方案,需要多源域的适应性。我们为解决这个问题做出了三个主要贡献 ...
0 0 0 2025/04/14 arXiv:1812.01754v4 15966829631
我们介绍了Aibrix,这是一种云原生,开源框架,旨在优化和简化云环境中的大规模LLM部署。与传统的云本地堆栈不同,Aibrix遵循共同设计的理念,确保基础架构的每一层都是专门建立的,可与Vllm这样的推理引擎无缝集成。 Aibrix引入了几项关键创新,以降低推理成本并提高性能,包括用于动态适配器调度的高密度LORA管理,LLM特定的自动制剂以及前缀感知,负载感知的路由 ...
0 0 0 2025/04/14 arXiv:2504.03648v1 Extious
本文介绍了我们的面向任务的对话系统ubar,它在对话会话级别上对面向任务的对话进行建模。具体来说,ubar是通过对大型预训练单向语言模型gpt-2对整个对话会话的序列进行微调获得的,整个对话会话由每个对话的用户话语、信念状态、数据库结果、系统行为和系统响应组成转动。此外,ubar在更现实的环境中进行评估,其中其对话上下文可以访问用户话语及其生成的所有内容,例如信念状态、系统行为和系统响应 ...  ...
0 0 0 2025/04/14 arXiv:2012.03539v2 chengl

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)