经过弱注释训练的对象检测器是完全监督的对象检测器的经济替代品。然而,它们之间仍然存在显着的性能差距。我们建议通过使用“box-in-box”(BiB)(一种新颖的主动学习)从训练集中自动选择一些完全注释的样本来微调基本的预训练弱监督检测器来缩小这一差距专门为解决弱监督探测器的有据可查的故障模式而设计的策略 ...
0 0 0 2024/04/20 arXiv:2207.12112v1 hzl
我们描述了一种面向任务的对话方法,其中对话状态表示为数据流图。对话代理将每个用户话语映射到扩展该图的程序。程序包括用于参考和修订的元计算运算符,它们重用前一轮的数据流片段 ...
0 0 0 2024/04/20 arXiv:2009.11423v3 robot
本文旨在帮助构建与大规模语言模型 (LM) 相关的风险格局。为了促进负责任的创新的进步,需要深入了解这些模型带来的潜在风险。借鉴计算机科学、语言学和社会科学的多学科专业知识和文献,详细分析了各种已确定的和预期的风险 ...
0 0 0 2024/04/20 arXiv:2112.04359v1 hitlic
随着模型(例如 BERT、DALL-E、GPT-3)的兴起,人工智能正在经历范式转变,这些模型经过大规模数据训练并适用于各种下游任务 ...
0 0 0 2024/04/20 arXiv:2108.07258v3 hitlic
本文探讨了将 GPT-3.5 和 GPT-4 等大型语言模型 (LLM) 集成到本体细化过程中,特别关注 OntoClean 方法。 OntoClean 对于评估本体的形而上学质量至关重要,涉及将元属性分配给类并验证一组约束的两步过程 ...
0 0 0 2024/04/20 arXiv:2403.15864v1 JayLiu
本体对齐是语义网中用于检测不同本体之间关系的关键过程,传统上侧重于通过类标签和属性比较来识别所谓的“简单”一对一关系。对更复杂的对齐的更实际有用的探索仍然是自动化的难题,因此很大程度上尚未得到充分探索,即 ...
0 0 0 2024/04/20 arXiv:2404.10329v1 JayLiu
本体匹配(OM)是知识集成中的一项关键任务,其中对齐异构本体有助于数据互操作和知识共享。传统的 OM 系统通常依赖于专家知识或预测模型,对大型语言模型 (LLM) 潜力的探索有限。我们提出了 LLMs4OM 框架,这是一种评估 LLM 在 OM 任务中有效性的新方法 ...
0 0 0 2024/04/20 arXiv:2404.10317v1 JayLiu
适应性学习旨在提供定制的教育活动(例如练习)来满足个人的学习需求 ...
0 0 0 2024/04/20 arXiv:2306.02457v1 Shylie

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)