协同感知旨在通过促进多个代理之间的数据交换,减少单代理感知的局限性,例如遮挡。然而,目前的大多数研究都考虑了所有代理都使用同一传感器和感知模型的同质场景。在现实中,异构代理类型可能会不断涌现,在与现有代理协作时,不可避免地会面临领域差距。...
0 0 0 2024/02/20 arXiv:2401.13964v2 ljx
指令训练(IT)是利用指令-响应对训练大型语言模型(LLMs)的过程,已成为将基础预训练 LLMs 转化为开放域对话代理的主要方法。虽然信息技术取得了显著的成功并被广泛采用,但其局限性和不足之处仍未得到充分探索。在本文中,我们通过严格的实验和对 LLM 通过 IT 所发生的变化的深入分析,揭示了 IT 的各种局限性...
0 1 20 2024/02/16 arXiv:2402.05119v1 yiyibooks
由于基于大语言模型(LLM)的聊天助手具有广泛的能力,而且现有基准在衡量人类偏好方面存在不足,因此对其进行评估具有挑战性。为了解决这个问题,我们探索使用强大的 LLM 作为评委,就更开放的问题对这些模型进行评估。我们研究了大语言模型作为评委的用法和局限性,包括立场、口头禅和自我强化偏差,以及有限的推理能力,并提出了缓解其中一些问题的解决方案...
0 0 0 2024/02/16 arXiv:2306.05685v4 yiyibooks
自我监督学习(SSL)在语音识别方面取得了巨大成功,但在其他语音处理任务方面的探索还很有限。 由于语音信号包含说话人身份、副语言学、说话内容等多方面信息,因此学习适用于所有语音任务的通用表征具有挑战性。...
0 0 3 2024/02/16 arXiv:2110.13900v5 yiyibooks
在这项工作中,我们介绍了 ChatQA,这是一个对话式问题解答(QA)模型系列,可获得 GPT-4 级别的准确度。 具体来说,我们提出了一种两阶段指令调整方法,可以显著改善大型语言模型(LLM)的零样本会话 QA 结果。 为了处理对话式质量保证中的检索增强生成,我们在多轮质量保证数据集上对密集检索器进行了微调,其结果与使用最先进的查询重写模型相当,同时大大降低了部署成本。 值得注意的是,我们的 C ...
0 0 8 2024/02/15 arXiv:2401.10225v2 yiyi
We posit that to achieve superhuman agents, future models require superhuman feedback in order to provide an adequate training signal. Current approaches commonly train reward models from human prefer ...
0 0 0 2024/02/15 arXiv:2401.10020v1 yiyi
理解语境是理解人类语言的关键所在,而大型语言模型(LLM)在这方面的表现越来越令人印象深刻。 然而,尽管对 LLM 的评估涉及自然语言处理领域的各个领域,但对其理解上下文特征的语言能力的关注却很有限。 本文通过调整现有数据集以适应生成模型的评估,介绍了一种语境理解基准。 该基准包括四项不同的任务和九个数据集,所有任务的提示都是为了评估模型理解上下文的能力。 首先,我们评估了 LLM 在情境学习预训 ...
0 0 0 2024/02/15 arXiv:2402.00858v1 yiyi
We introduce a new language representation model called BERT, which stands for Bidirectional Encoder Representations from Transformers. Unlike recent language representation models Peters et al. (2018 ...
0 0 0 2024/02/15 arXiv:1810.04805v1 yiyi