实时竞标(RTB)是展示广告的重要范式,广告商利用需求侧平台(DSP)提供的扩展信息和算法来提高广告性能。 DSP的一个普遍问题是帮助广告商通过预算限制获得尽可能多的价值。但是,广告客户通常会由于实际原因而添加某些关键绩效指标(KPI)的约束 ...
异常检测(AD)标识了缺陷和病变检测等应用的异常值。尽管剪辑由于其强大的概括功能而显示出零射击AD任务的希望,但其固有的异常 - 不清算性会导致正常和异常特征之间的歧视有限。为了解决这个问题,我们提出了异常感知的剪辑(AA-CLIP),从而增强了剪辑在文本和视觉空间中的异常歧视能力,同时保留其概括能力 ...
由于对高效和可靠的城市监视系统的需求不断增长,最近流量视频描述和分析最近受到了很多关注。大多数现有方法仅着眼于定位交通事件段,这些段严重缺乏与事件中所有感兴趣的主题的行为和上下文有关的描述性细节。在本文中,我们介绍了TrafficVLM,这是一种新型的多式模式密集视频字幕模型,用于车辆自我相机视图 ...
面向任务的对话框(TOD)系统必须求解多个子目标以实现用户目标,而反馈通常仅在对话框末尾获得。在这项工作中,我们提出了诉讼(次目标意识迭代培训),这是一种改善TOD系统的迭代培训方法。我们旨在从模型中采样对话框,旨在改善和确定使用遥远的监督以获取高质量训练样本有助于对话成功的子目标 ...
大型推理模型(LRMS)的最新进展,尤其是那些利用经过思考推理的那些(COT),已经为机器翻译(MT)打开了全新的可能性。该立场论文认为,LRMS通过将翻译翻译为一项动态推理任务,实质上改变了传统的神经MT以及基于LLMS的MT范式,需要上下文,文化和语言理解和推理。我们确定了三个基本转变:1)上下文连贯性,LRMS通过在跨句子和复杂的背景上的明确推理甚至缺乏背景来解决歧义并保护话语结构; 2)文 ...
尽管表现出色,但由于其大量参数和计算,部署基础模型或大型语言模型(LLM)还是具有挑战性的。虽然修剪是一种有前途的技术,可以减少模型尺寸并加速推断,但传统的修剪技术几乎不可用于LLMS,因为它们需要在整个数据集中使用多个时期的多个时期消耗大量数据和硬件资源来对模型进行验证。为了解决这个问题,提出了训练后修剪方法,以一杆而无需再培训 ...
大型基础模型的令人印象深刻的功能以实质性的计算资源为代价为它们提供服务。压缩这些预训练的模型具有实际兴趣,因为它可以通过降低与推理相关的成本来民主化将它们部署到整个机器学习社区。一个有希望的压缩方案是将基础模型的致密权重分解为稀疏加上低级矩阵的总和 ...
诸如伯特(Bert)的大型语言模型由于其尺寸巨大而遭受缓慢的推理和高度记忆使用的影响。压缩BERT的最新方法依赖于迭代修剪和知识蒸馏,但是,这通常太复杂且计算很大。本文提出了一种针对Bert的新型半结构化修剪方法,称为$ \ textIt {置换和分组bert} $(PGB),在保持准确性的同时,可以达到高压缩效率和稀疏性 ...