本文评估了LLM从上下文产生的问题,将其与六个维度的人类生成的问题进行了比较。我们介绍了一种基于LLM的自动化评估方法,重点介绍了问题长度,类型,上下文覆盖和答复性等方面。我们的发现突出了LLM生成的问题的独特特征,促进了可以支持有关质量和下游应用程序的进一步研究的见解 ...
文本对图像(T2I)扩散模型在按用户提示下生成视觉上引人入胜的图像时显示出令人印象深刻的结果。在此基础上,各种方法进一步调整了针对特定任务的预训练的T2I模型。但是,这需要单独的模型体系结构,培训设计和多个参数集来处理不同的任务 ...
动态场景渲染是一个有趣而又具有挑战性的问题。尽管基于NERF的当前方法已经达到了令人满意的性能,但它们仍然无法达到实时水平。最近,由于其出色的渲染质量和实时速度,3D高斯(3DGS)(3DGS)引起了研究人员的关注 ...
在本文中,我们介绍了Salsanext,以实时对完整的3D激光点云进行不确定性感知的语义分割。 Salsanext是Salsanet [1]的下一个版本,该版本具有一个编码器架构,其中编码器单元具有一组重新网络块,而解码器部件结合了从残差块中的UPS采样功能。与Salsanet相反,我们引入了一个新的上下文模块,用新的残留扩张卷积堆栈替换Resnet编码器块,并逐渐增加接受场,并在解码器中添加Pi ...
我们提出了一种新型的变形隐式场(DIF)表示,用于建模类别的3D形状并在形状之间产生密集的对应关系。使用DIF,一个3D形状由整个类别共享的模板隐式字段以及3D变形字段和每个形状实例专用的校正字段表示。可以使用其变形字段轻松建立形状对应关系 ...
大型语言模型(LLM)具有解决具有挑战性和看不见的推理问题的卓越能力,在表格学习方面拥有巨大的潜力,这对于许多现实世界的应用程序至关重要。在本文中,我们提出了一种新颖的上下文学习框架 FeatLLM,该框架采用 LLM 作为特征工程师来生成最适合表格预测的输入数据集。生成的特征用于通过简单的下游机器学习模型(例如线性回归)推断类别可能性,并产生高性能的小样本学习 ...
适当的损失(例如跨凝性激励分类器)产生的类概率在训练数据上得到了很好的校准。由于概括差距,这些分类器倾向于在测试数据上过度自信,强制校准方法(例如温度缩放)。焦点损失不合适,但是已经证明对其进行训练通常会导致分类器在测试数据上可以更好地校准 ...
大型语言模型(LLM),例如OpenAI发布的ChatGpt,由于其展示的能力为各种任务生成高质量的内容,因此引起了行业和学术界的极大关注。尽管LLM具有令人印象深刻的能力,但人们对它们在新闻,教育和软件工程等各个领域的潜在风险越来越担心。最近,已经提出了一些商业和开源LLM生成的内容探测器,但是,该探测器主要用于检测自然语言内容而无需考虑程序代码的具体特征 ...