人工智能的快速发展具有明显的高级语义通信,尤其是在无线图像传输中。但是,大多数现有的方法都难以精确区分和优先考虑图像内容,并且它们没有充分将语义优先级纳入系统设计中。在这项研究中,我们提出了一种称为ASCVIT-JSCC的自适应无线图像传输方案,该方案利用了基于视觉 Transformer 的联合源通道编码(JSCC) ...
大型语言模型(LLMS)在复杂的任务中表现出了出色的功能。大型推理模型(LRMS)的最新进展,例如OpenAI O1和DeepSeek-R1,通过利用监督的微调(SFT)和加强学习(RL)技术来进一步提高了System-2推理领域(如数学和编程)的性能。但是,尽管较长的COT推理序列改善了性能,但由于冗余和冗余输出(称为“过度思考现象”),它们也引入了重要的计算开销 ...
大型语言模型(LLM)推论,其中一个受过训练的模型一次以用户提示为响应用户提示生成文本一个单词,这是一个计算密集的过程,需要有效的调度来优化延迟和资源利用率。 LLM推断中的一个关键挑战是密钥值(KV)缓存的管理,该缓存减少了冗余计算,但引入了内存约束。在这项工作中,我们从理论上对LLM推断进行了对KV缓存约束的建模,并提出了新颖的批处理和调度算法,以最大程度地减少推理潜伏期,同时有效地管理KV ...
我们提出了一种用于单图超分辨率(SR)的深度学习方法。我们的方法直接学习低/高分辨率图像之间的端到端映射。映射表示为深卷卷神经网络(CNN),该网络将低分辨率图像作为输入并输出高分辨率 ...
检索增强生成通过提供事实支持彻底改变了大语言模型 (LLM) 的输出。然而,它很难获取复杂推理问题的所有必要知识。现有的检索方法通常将参考文档划分为多个段落,并单独处理它们 ...
长篇文本多模式大型语言模型(MLLM)需要大量的计算资源来推断其多模式键值(KV)缓存的增长,以响应增加输入长度,挑战内存和时间效率。与仅管理文本上下文的单模式LLM不同,长篇小说MLLM的KV缓存包括来自具有时间和空间关系以及相关文本上下文的多个图像的表示。图像 Token 的优势意味着对LLMS的KV缓存的传统优化不适合多模式的长篇小写设置,并且没有以前的工作解决了这一挑战 ...
由于3D几何信息,尤其是在复杂的条件下(例如,弱光且暴露过度暴露),场景理解的最新进展从深度图受益匪浅 ...
尽管在静态蛋白质结构收集和预测方面取得了重大进展,但蛋白质的动态行为(它们最重要的特征之一)在先前的研究中已被很大程度上忽略了。该监督可以归因于动态蛋白质数据集的有限可用性,多样性和异质性。为了解决这一差距,我们建议通过整合动态数据和其他物理属性来增强现有著名的静态3D蛋白质结构数据库,例如蛋白质数据库(PDB) ...