大型语言模型通过基于梯度的更新的积累来学习和不断学习,但是各个新信息如何影响现有知识,导致有益的概括和有问题的幻觉,仍然对此知之甚少。我们证明,在学习新信息时,LLM会表现出“启动”效果:学习新事实可能会导致模型不适当地将知识应用于无关的环境中。为了系统地研究这一现象,我们介绍了一个经过精心策划的数据集的“ Overlandish”,该数据集是1320种不同的文本样本,旨在探究新知识如何通过LLM ...
0 0 0 2025/04/21 arXiv:2504.09522v1 takkeri
生物神经网络继续激发神经网络性能的突破。然而,神经计算的关键领域在生物学上是合理的,节能的尖峰神经网络,其潜力对低功率,移动或其他硬件约束的设置特别有吸引力。我们介绍了尖峰神经网络的解释,优化,效率和准确性方面的最新发展文献综述 ...
0 0 0 2025/04/21 arXiv:2303.10780v2 打笨蛋
大型语言模型(LLMS)供公共使用,需要持续的预培训才能与最新数据保持最新。这些模型还需要通过特定的说明进行微调,以保持其准确遵循指示的能力。通常,LLMS分为两个版本:基本LLM,预先培训在不同的数据上,以及通过指令精制的LLM进行了培训,并接受了特定指令的培训,以提供更好的说明 ...
0 0 0 2025/04/21 arXiv:2410.10739v1 beiya
我们介绍了一个开放的社区驱动项目Universal Ner(Universe Ner)(Universe Ner),旨在以多种语言开发金标准的NER基准。 UNER的总体目标是提供高质量的交叉一致注释,以促进和标准化多语言NER研究。 UNER V1包含18个数据集,该数据集在12种不同语言的跨语言一致架构中使用命名实体 ...
0 0 0 2025/04/21 arXiv:2311.09122v3 cella
大型语言模型(LLM)在各个领域的各种任务中都表现出了出色的功能。尽管表现令人印象深刻,但由于几代人的事实错误,它们可能不可靠。评估他们的信心并在不同的任务中校准它们可以帮助减轻风险,并使LLM能够产生更好的世代 ...
0 0 0 2025/04/21 arXiv:2311.08298v2 cella
大型语言模型(LLM)在生物医学应用中的快速发展突显了其潜力与有限规模的差距,并且通常较低的可用开源注释的文本数据集质量较低。此外,生物医学知识层次结构的固有复杂性极大地阻碍了这一HTTP URL LLM本身在克服这一限制方面起着关键作用?在这个问题的推动下,我们在目前调查了这一挑战,该HTTP URL提出了一个框架,该框架可自动化从广泛的科学文献中蒸馏出高质量的文本培训数据。我们的方法是自我评估 ...
0 0 0 2025/04/21 arXiv:2501.15108v1 algc
在本文中,我们提出了Echo,这是一种新型的联合匹配的远程操作系统,旨在增强手动和双人任务的数据集集合。我们的系统专门针对控制UR操纵器而定制,并具有具有力反馈和可调节灵敏度模式的自定义控制器,从而实现了精确和直观的操作。此外,ECHO集成了用户友好的数据集记录接口,简化了收集高质量培训数据以进行模仿学习的过程 ...
0 0 0 2025/04/21 arXiv:2504.07939v1 odenkkk
组成的图像检索(CIR)是一项新兴但具有挑战性的任务,允许用户使用多模式查询搜索目标图像,包括参考图像和修改文本,指定用户对参考图像的所需更改。鉴于其具有巨大的学术和实践价值,CIR已成为计算机视觉和机器学习社区中迅速增长的兴趣领域,尤其是在深度学习方面的进步。据我们所知,目前尚无对CIR的全面审查,可以及时概述该领域 ...
0 0 0 2025/04/21 arXiv:2502.18495v2 Archer

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)