本文介绍了一种基于耦合表示和神经体积优化的新方法,可在潜在空间中隐式执行 3D 形状编辑。本工作有三点创新。首先,我们设计耦合神经形状 (CNS) 表示以支持 3D 形状编辑 ...
这是为 2024 年春季在纽约大学数据科学中心举办的 DS-GA 3001.003“DS 专题 - 机器学习中的因果推理”制作的讲义。本课程的目标受众是硕士和博士级别的学生具有机器学习的基本背景,但之前没有接触过因果推理或一般因果推理 ...
代码大型语言模型 (LLM) 是一系列高参数、基于 Transformer 的神经网络,在自然语言和编程语言的海量数据集上进行了预训练。这些模型正在迅速应用于基于人工智能的商业开发工具,例如 GitHub CoPilot。然而,考虑到它们的规模和复杂性,测量和解释它们在编程任务上的有效性是一个具有挑战性的命题 ...