诸如Wikipedia之类的文本知识库需要大量的努力来保持最新和一致。尽管自动写作助理可能会减轻这种负担,但建议以外部知识为基础进行编辑的问题尚未探索。在本文中,我们介绍了 *忠实地反映文本 *(水果)中最新信息的新颖生成任务,目的是更新现有的文章,给出了新的证据 ...
0 0 0 2025/02/20 arXiv:2112.08634v2 changer32
大型语言模型(LLMS)利用了经营链(COT)促使逐步理解的理由,从而提高了复杂任务的性能。尽管有好处,但香草床通常无法完全验证中间的推论,并可能产生误导性的解释。在这项工作中,我们提出了分层链(分层)提示,这是一个新颖的框架,将推理过程系统地将推理过程分为多层,每层都经过外部检查和可选的用户反馈 ...
0 0 0 2025/02/20 arXiv:2501.18645v2 Merlin_Wong
可以检测到银河系已解决的卫星系统的超生物矮星系,对于理解星系形成,进化和暗物质的本质至关重要,因为它们是最古老,最小,最小,最贫穷的金属贫困和最大的金属以暗物质为主的恒星系统已知。量化调查的敏感性对于理解其在寻找超生产卫星方面的能力和局限性至关重要。在本文中,我们介绍了基于调查的合成宇宙(SURFS)基于基于儿童时态的模拟的kilo-degree调查(儿童)的图像级观察性选择函数(儿童)的首次研究 ...
0 0 0 2025/02/20 arXiv:2502.13858v1 667903
在本文中,我们探讨了一种提高广泛预先存在的粗面膜质量的主要方法,使它们能够作为分割模型的可靠培训数据,以降低注释成本。与以近世界为特定模型或任务量身定制的先前的改进技术相反,我们提出了Samrefiner,这是一种通过将SAM适应遮罩细化任务的通用和高效方法。我们模型的核心技术是耐噪声的提示方案 ...
0 0 0 2025/02/20 arXiv:2502.06756v1 Archer
以顺序学习任务的能力对于人工智能的发展至关重要。通常,神经网络没有能力,并且人们普遍认为灾难性遗忘是连接主义模型的必然特征。我们表明,有可能克服这一限制和训练网络,这些局限性可以维持他们长期以来从未经历过的任务的专业知识 ...
0 1 0 2025/02/20 arXiv:1612.00796v2 Fun_James
我们引入了语言模型(DCLM),这是一个用于受控数据集实验的测试平台,其目标是改进语言模型。作为dclm的一部分语料库、基于 openlm框架的有效预训练配方以及广泛的53个下游评估套件。dclm基准测试的参与者可以在412m到7b参数的模型规模上试验数据管理策略,例如重复数据删除、过滤和数据混合,例如重复数据删除、过滤和数据混合。 .. ...
0 0 0 2025/02/20 arXiv:2406.11794v3 feiheiter
对AI代理商的信任已经在文献中进行了广泛的研究,从而在我们对该领域的理解中取得了重大进步。但是,大语言模型(LLM)的快速进步以及基于LLM的AI代理框架的出现构成了新的挑战和进一步研究的机会。在过程自动化领域,新一代基于AI的代理已经出现,从而实现了复杂任务的执行 ...
0 0 0 2025/02/20 arXiv:2308.05391v1 hzz137
大型语言模型(llm)编码有关世界事实的参数知识,并在知识驱动的nlp任务中表现出了卓越的性能。然而,他们对参数知识的依赖可能会导致他们忽视上下文线索,从而导致在上下文相关,从而导致在上下文相关的nlp 任务中做出错误的预测(例如,... ...
0 0 0 2025/02/20 arXiv:2303.11315v2 wuxiaohua123

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)