选择性检索通过减少低质量检索和提高效率的干扰来改善检索增强的生成(RAG)。但是,现有的方法低估了大语言模型(LLMS)的固有知识,从而导致了次优的检索决策和降解的发电绩效。为了弥合这一差距,我们提出了自言自语的抹布(SR-rag),这是一个新颖的框架,将选择性检索与知识言语结合 ...
0 0 0 2025/04/14 arXiv:2504.01018v1 liuweitang
自学学习方法(例如对比度学习)在自然语言处理中引起了极大的关注。它使用成对的培训数据增强来为具有良好表示能力的编码器构建分类任务。但是,在NLP任务中,学习对而不是对比度学习的构建更加困难 ...
0 0 0 2025/04/14 arXiv:2111.13301v2 15966829631
近年来,已经对无监督的域适应性(UDA)算法进行了积极研究,但大多数算法和理论结果都集中在单源无耐心的域适应(SUDA)上 ...
0 0 0 2025/04/14 arXiv:2201.01003v1 yqstar
中国拼写校正(CSC)任务着重于检测和纠正句子中的拼写错误。当前的研究主要探讨了两种方法:传统的多模式预训练模型和大型语言模型(LLMS)。但是,LLMS在CSC中面临限制,尤其是过度校正,使其在此任务中均优美 ...
0 0 0 2025/04/14 arXiv:2504.07661v1 jomei
概率的逻辑规则学习在逻辑规则挖掘和知识图完成中表现出很大的实力。它学习逻辑规则,通过在知识图中的现有边缘进行推理来预测缺失边缘。但是,以前的努力在很大程度上仅限于建模类似链的喇叭子句,例如$ r_1(x,z)\ land r_2(z,y)\ rightarrow h(x,y)$ ...
0 0 0 2025/04/14 arXiv:2305.12738v1 xuexizhanghao
在本文中,我们全面研究了现代大型语言模型(LLM)的潜在滥用,以产生可信的错误信息及其随后对信息密集型应用程序的影响,尤其是开放域问题答案(ODQA)系统。我们建立了一个威胁模型,并模拟潜在的滥用情景,无论是无意的还是故意的),以评估LLM可以在多大程度上用于产生错误信息。我们的研究表明,LLM可以充当有效的错误信息发生器,从而导致ODQA系统的性能显着降解 ...
0 0 1 2025/04/14 arXiv:2305.13661v2 0x211
视觉模型(VLM)在自然场景中具有先进的推理,但是它们在医学成像中的作用仍然没有被逐渐倍增。医学推理任务需要强大的图像分析和正式的答案,这是由于医疗图像的复杂性而提出的挑战。透明度和可信度对于临床采用和法规依从性至关重要 ...
0 0 0 2025/04/14 arXiv:2503.13939v3 takkeri
大型语言模型(llm)可以捕获对现实世界任务有用的丰富概念表示。然而,llm擅长基于文本的推理,但健康应用程序要求模型以数字数据为基础(例如,数据)... ...
0 0 0 2025/04/14 arXiv:2305.15525v1 wwb

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)