本文提出了一种方法,以分解和量化在DNN内部编码的单词之间进行自然语言处理的方法。我们构造了一棵树,以编码DNN提取的显着相互作用。提出了六个指标来分析句子中成分之间相互作用的特性 ...
0 0 0 2025/05/24 arXiv:2007.04298v2 YGking
大型语言模型(LLM)的兴起彻底改变了跨多种语言和任务的自然语言处理。但是,在多种欧洲语言中以一致且有意义的方式评估LLM的性能仍然具有挑战性,尤其是由于语言并行多语言基准的稀缺性。我们介绍了针对欧洲语言量身定制的多语言评估方法 ...
0 0 0 2025/05/24 arXiv:2410.08928v2 UUU
提示语言模型提供分步答案(例如,“思考链”)是复杂推理任务的突出方法,其中更准确的推理链通常会改善下游任务性能 ...
0 0 0 2025/05/24 arXiv:2402.00559v4 YGking
大型语言模型(LLM)的开发依赖于广泛的文本语料库,这些文本语料库通常是在语言上分发不均的。这种不平衡导致LLM在英语,德语和法语等高资源语言上的表现明显更好,而其低资源语言的能力仍然不足。当前,缺乏评估这些低资源语言中LLM的性能的定量方法 ...
0 0 0 2025/05/24 arXiv:2404.11553v3 UUU
对于应用于各种语言的一般建模方法,一个自然的问题是:我们应该如何期望我们的模型在具有不同类型学概况的语言上工作?在这项工作中,我们使用翻译文本为语言模型的公平跨语言比较开发了一个评估框架,以便要求所有模型预测大致相同的信息。然后,我们对21种语言进行了一项研究,表明在某些语言中,信息的文本表达方式很难通过$ n $ gram和LSTM语言模型进行预测。我们显示复杂的拐点形态是语言之间表现差异的原因 ...
0 0 0 2025/05/24 arXiv:1806.03743v2 UUU
大型语言模型(LLM)逐渐被用作机器学习服务和用于各种应用程序的接口工具。但是,LLM的安全含义,尤其是与对抗和特洛伊木马攻击有关的,仍未得到充分检查。在本文中,我们提出了Trojllm,这是一种自动和黑盒框架,以有效地产生通用和隐形的触发器 ...
0 0 0 2025/05/23 arXiv:2306.06815v3 chenzhuo-wang
语言代理在规定的环境和简短的时间内表现出了令人印象深刻的解决问题的能力。然而,随着开放世界模拟的复杂性不断发展,迫切需要能够灵活适应复杂环境并持续保持长期记忆以确保连贯行动的智能体。为了弥合语言代理和开放世界游戏之间的差距,我们引入了角色扮演语言代理(LARP),其中包括一个包含记忆处理和决策助理的认知架构,一个具有反馈驱动的环境交互模块可学习的动作空间,以及促进各种个性协调的后处理方法 ...
0 0 0 2025/05/23 arXiv:2312.17653v1 parsifalster
我们评估了大型语言模型(LLMS)的持续回忆,并构成事实来回答多跳的查询,例如“在斯嘉丽·约翰逊(Scarlett Johansson)出生的那一年,夏季奥运会是在该国举行的”。评估这种能力的一个主要挑战是,LLM可能通过相同的培训序列中的“ Scarlett Johansson”和答案实体“ Scarlett Johansson”和答案实体开发了快捷方式,或者仅仅猜出基于基于频率的先验的答案。为 ...
0 0 0 2025/05/23 arXiv:2411.16679v1 YGking

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)