会议简介ICML是国际机器学习会议。它与NeurIPS、ICLR一起被公认为对机器学习和人工智能研究领域具有重大影响的三大会议之一。近年来,ICML 会议的投稿数量有所增加,ICML 2023 的投稿数量为4990 份,ICML 2023 的投稿数量为5513 份。一个月前,ICML 2023论文接收结果公布,接收论文1184篇。通过率为21.5%。
AMiner 使用AI 技术对ICML2023 中包含的会议材料进行分类和组织。
AMiner-ICML2023:https://www.aminer.cn/conf/icml2023 f=toutiao
2神经网络1.论文标题:宽神经网络中的核回归和谱相关学习曲线
论文链接:https://www.aminer.cn/pub/5e4129b13a55ac9f8f89e05e f=toutiao
现代机器学习的一个基本问题是深度神经网络如何泛化。我们证明了1)训练无限宽度神经网络和使用称为神经正切核(NTK)的确定性方法执行核回归的等效性(Jacot 等人,2023);2)我们使用统计物理工具的理论来解决这个问题。推导出核回归学习曲线的解析表达式,并用它来评估经过训练的神经网络的测试损失如何取决于样本数量。我们的方法不仅可以计算测试的总风险,还可以计算内核不同频谱分量的风险分解。最近的结果表明神经网络在梯度下降过程中首先适合低频分量,对此我们进行了补充,我们确定了一个新的频率原理。换句话说,随着训练集大小的增加,内核机和神经网络开始顺序拟合高频模式目标。我们通过内核回归模拟和广泛的人工神经网络训练来测试我们的理论。
2. 论文标题:通过神经网络标签空间中的数据增强来组合数据集
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af514c f=toutiao
大多数(如果不是全部)现代深度学习系统仅限于用于神经网络训练和推理的单个数据集。 在本文中,我们感兴趣的是一种出于类似目的连接数据集的系统方法。 与之前发表的普遍在不可解释的潜在向量空间中执行数据集串联的工作不同,我们方法的核心是标签空间中的扩展过程。 解决数据集级联标签空间的主要挑战是标签之间的差异,例如标签注释集不重叠、标签粒度和层次结构的差异等。特别是,我们提出了一种新技术,利用人工创建的知识图、循环神经网络和策略梯度来成功地将数据集组合到标签空间中。 图像和文本分类的实验结果证明了我们方法的有效性。
3.论文标题:学习神经网络子空间
论文链接:https://www.aminer.cn/pub/6034d5e991e01122c046f727 f=toutiao
最近的观察加深了我们对神经网络优化领域的理解,揭示了(1)包含各种解决方案的高精度路径的存在,以及(2)可以提高性能的更广泛的最小值。 以前观察不同路径的方法需要多次培训。 相比之下,我们的目标是通过单一方法和单次训练来利用属性(1) 和(2)。 以与训练模型类似的计算成本学习高精度神经网络中的直线、曲线和简单性。 这些神经网络子空间包含各种可以集成的解决方案,接近独立训练网络的集成性能,而无需训练成本。 此外,使用子空间中点可以提高标记噪声相对于随机加权平均的准确性、校准和鲁棒性。
4. 论文标题:在存在对抗性标签噪声的情况下用SGD 训练的任意宽度神经网络的可证明泛化
论文链接:https://www.aminer.cn/pub/5ff4607591e01130648dc6b6 f=toutiao
考虑任意宽度的单隐藏层泄漏ReLU 网络,在任意初始化后通过随机梯度下降进行训练。 我们证明,随机梯度下降(SGD)在各种分布类别(包括对数凹各向同性分布和硬有界分布)的分布上实现了与最佳半空间相当的分类精度。 类似地,如果数据分布是线性可分的,但被对抗性标签噪声破坏,那么这样的网络可能会泛化,尽管它有过拟合的能力。 我们进行的实验表明,对于某些分布,泛化极限几乎是精确的。 这是第一个结果,表明当数据被对抗性标签噪声破坏时,SGD 训练的过度参数化神经网络可以泛化。
5. 论文标题:Classification of High-Dimensional Gaussian Mixtures : 核方法失败而神经网络成功的地方
论文链接:https://www.aminer.cn/pub/60362ef591e011703cfaf91d f=toutiao
最近的一系列理论研究表明,核方法可以使用特定的初始化成功捕获神经网络的动态。同时的实证研究表明,这种方法可以接近神经网络在某些图像分类任务中的性能。这些结果提出了一个问题:神经网络虽然更具表现力,但只有在内核也被成功训练的情况下才能成功训练。在这里,我们从理论上证明,仅包含少量隐藏神经元的两层神经网络(2LNN)可以在简单的高斯混合分类任务上优于核学习。我们研究了样本数量与输入维度成线性比例的高维限制,并表明小型2LNN 在此任务中实现了近乎最佳的性能,而随机特征和核方法等惰性训练技术却无法做到这一点。我们的分析基于一组追踪2LNN 学习动态的封闭方程的推导,使我们能够提取网络的渐近性能作为信噪比和其他超参数的函数。
3图神经网络1.论文标题:E(n)等变图神经网络
论文链接:https://www.aminer.cn/pub/6033832f91e011e54d039b86 f=toutiao
过度拟合训练集:解释对称问题并表明等变图神经网络在某些数据集上优于其他技术。
2. 论文标题:Lipschitz Normalization of self-attention layer with application to graph Neural Network
论文链接:https://www.aminer.cn/pub/6047909691e0116b67c79350 f=toutiao
我们证明了Lipschitz 连续体模块可以防止梯度爆炸现象并提高深度注意力模型的性能。
3.论文标题:On the可解释性的图神经网络的子图搜索
论文链接:https://www.aminer.cn/pub/6025462c91e0118ffcd4a197 f=toutiao
在这项研究中,我们提出了一种名为SubgraphX 的新方法,通过识别重要的子图来描述GNN。 给定一个经过训练的GNN 模型和一个输入图,SubgraphX 通过使用蒙特卡洛树搜索有效地探索不同的子图来解释其预测。
4. 论文标题:通过正交归一化和诱导稀疏性提高分子图神经网络的可解释性。
论文链接:https://www.aminer.cn/pub/609baf6491e0113c3c769369 f=toutiao
很难合理解释分子的哪些部分驱动分子图卷积神经网络(GCNN) 的预测。 为了帮助实现这一点,我们提出了在GCNN 训练期间应用两种简单的正则化技术:批量表示正交化(BRO) 和基尼正则化。
5. 论文标题:受经典迭代算法启发的图神经网络
论文链接:https://www.aminer.cn/pub/6049f20b91e01118b758f10a f=toutiao
为了在简单透明的框架内至少部分地解决这些问题,我们引入了两种经典的迭代算法:近端梯度下降和迭代重加权最小二乘法(IRLS)更新规则,我们考虑了旨在模仿和集成的新GNN 层系列。
4Bandit1。论文标题:随机和对抗线性老虎机中同时实现近实例和极小极大最优性。
论文链接:https://www.aminer.cn/pub/60264d8291e011821e023b40 f=toutiao
在本研究中,我们开发了一种自动适应不同环境的线性老虎机算法。 通过将新的损失估计器插入到表征实例最优策略的优化问题中,我们的第一个算法不仅在随机环境中实现了接近实例最优性,而且还可以在损坏的环境中工作。
2. 论文标题:具有转换成本的随机和对抗性强盗算法
论文链接:https://www.aminer.cn/pub/6033840491e011e54d039b9a f=toutiao
我们提出了一种具有切换成本的随机和对抗性多臂老虎机算法,该算法是Zimmert 和Seldin (2023) 的Tsallis-INF 算法的改编。该算法不需要先验知识或时间范围。
3. 论文标题:Beyond $\\log^2(T)$ Regret for Decentralized Bandits in Matching Markets
论文链接:https://www.aminer.cn/pub/605075e291e0111e1cd4693c f=toutiao
我们设计了一种去中心化算法,通过单侧强盗反馈最大限度地减少两侧匹配市场中的遗憾,这显着改进了之前的工作(Liu et al. 2023a, 2023b;Sankararaman et al. 2023)。
4. 论文标题:Bias-robust Bayesian optimization using Dueling Bandit
论文链接:https://www.aminer.cn/pub/60af5a5591e0116560681632 f=toutiao
我们的第一个贡献是减少决斗强盗模型的混淆设置,然后我们提出了一种基于信息定向采样(IDS)的决斗强盗新方法。我们的分析进一步将先前提出的半参数线性老虎机模型推广到非线性奖励函数,并揭示了与双鲁棒估计的有趣关系。
5. 论文题目:Online Limited Memory Neural Linear Bandits with Likelihood Matching
论文链接:https://www.aminer.cn/pub/60225fdf91e011e70e451193 f=toutiao
我们研究神经线性老虎机来解决探索和表示学习都发挥重要作用的问题。
神经线性强盗
它利用深度神经网络(DNN) 的表达能力,并将其与专为最后一个隐藏层之上的线性上下文强盗而设计的高效探索机制相结合。
5 变形金刚1.论文标题:像变形金刚一样思考
论文链接:https://www.aminer.cn/pub/605040f49e795e84274dc840 f=toutiao
我们提供了几个用限制访问序列处理语言编写的表达程序的示例,并演示了转换器如何实现复杂的操作。
2.论文标题:
线性复杂度的变压器相对位置编码论文链接:https://www.aminer.cn/pub/60a4eba491e011e398b0d01a f=toutiao
我们提出随机位置编码作为生成PE 的方法,可以用来代替经典的加性(正弦)PE,并且可以证明其行为与RPE 类似。 主要的理论贡献是在位置编码和相关高斯过程的互协方差结构之间建立联系。
3. 论文标题:具有独立机制竞争集合的变压器
论文链接:https://www.aminer.cn/pub/603e10a391e01129ef28fc5d f=toutiao
我们提出了带有独立机制(TIM)的Transformer,这是一个新的Transformer 层,它将隐藏的表示和参数分割成多种机制,仅通过关注点交换信息。此外,我们提出了一种竞争机制,鼓励这些机制专业化并随着时间的推移变得更加独立。
4. 论文标题:ViLT: 无卷积或区域监督的视觉和语言翻译器
论文链接:https://www.aminer.cn/pub/60211a1e91e0113bfb1dc6a2 f=toutiao
我们提出了视觉和语言翻译器(ViLT),这是一种最小的VLP 模型。它是整体的,因为它以与文本输入处理相同的非卷积方式极大地简化了视觉输入处理。我们发现ViLT 比之前的VLP 模型快60 倍,并且在下游任务上表现更好。
5. 论文标题:PipeTransformer: Automated Elastic Pipelines for Distributed Training of Transformers
论文链接:https://www.aminer.cn/pub/6021115b91e0113bfb1dc5f5 f=toutiao
我们提出PipeTransformer,它利用自动化弹性管道和数据并行性来高效分布式训练Transformer 模型。 PipeTransformer 在训练期间识别并冻结特定层,自动调整管道和数据并行性,并分配资源来训练剩余的活动层。
6 深度强化学习1.论文标题:DouZero: 通过自对弈深度强化学习学习斗地主
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af4eae f=toutiao
我们提出了一个概念上简单但有效的斗地主人工智能系统,即斗零。它通过深度神经网络、动作编码和并行参与者增强了传统的蒙特卡罗方法。在具有4 个GPU 的服务器上从头开始,DouZero 在短短几天的训练中就超越了所有现有的斗地主AI 程序,并在Botzone 排行榜上的344 个AI 代理中排名第一。
2. 论文标题:SAINT-ACC: 利用深度强化学习的自动驾驶汽车安全感知智能自适应巡航控制
论文链接:https://www.aminer.cn/pub/60782a0091e011f5ecc9dbc0 f=toutiao
我们提出了一种自主自适应巡航控制系统,通过基于深度强化学习的车间距动态适应,同时优化交通效率、驾驶安全性和驾驶舒适性。
3. 论文标题:结合悲观主义和乐观主义,实现稳健高效的基于模型的深度强化学习
论文链接:https://www.aminer.cn/pub/6054878891e0116f82f2d76f f=toutiao
我们提出了一种鲁棒可靠性幻觉强化学习(RH-UCRL)算法来证明它可以解决这个问题,同时获得接近最优的样本复杂度保证。 RH-UCRL 是一种基于模型的强化学习(MBRL)算法。
4. 论文标题:深度强化学习的频谱归一化: 优化视角
论文链接:https://www.aminer.cn/pub/609bc82091e0113c3c7694f1 f=toutiao
我们进行了一项消融研究,以解决归一化对学习动态的不同影响,并表明这足以调整参数更新以恢复大部分光谱归一化性能。这些发现表明,解决深度强化学习的特征还需要关注神经组件及其学习动态。
5. 论文标题:深度强化学习的强调算法
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af51b3 f=toutiao
将重点技术的使用扩展到深度强化学习代理。我们表明,简单地将ETD($\\lambda$) 应用于使用前视多步回归的常见深度强化学习算法会导致性能不佳。然后,我们针对此类算法推导了一种新算法,并证明它可以在突出TD 方法不稳定性的小问题上提供显着的好处。最后,我们观察到,将这些算法大规模应用于街机学习环境中的经典Atari 游戏可以提高游戏性能。
7生成模型1.论文标题:Hidden Layer Optimization for Inverse Problems using Deep Generative Models
论文链接:https://www.aminer.cn/pub/602bab4991e0113d72356d8d f=toutiao
我们证明中间层优化在解决四种不同设置中的深度生成模型逆问题时实现了最先进的无监督性能: 修复、超分辨率、去噪和循环矩阵压缩感知。
2. 论文标题:Fold2Seq: A Joint Sequence(1D)-Fold(3D) Embedding-based Generative Model for Protein Design
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af5239 f=toutiao
我们设计了一种新的基于变压器的模型,从折叠内和折叠之间的二级结构元素的3D 体素中提取无标度的粗略拓扑特征,并将这些特征用作设计蛋白质序列的条件输入。
3. 论文名称:NeRF-VAE: 几何识别3D场景生成模型
论文链接:https://www.miner.cn/pub/6066fccb91e011f2d6d47cd9 f=toutiao
我们提出了NeRF-vae,一种3D 场景生成模型,它将几何结构和可微体积渲染与NeRF 相结合。与NeRF 相比,我们的模型考虑了场景之间的共享结构,并且可以使用平摊推理来推断新场景的结构,而无需重新训练。
4. 论文标题:使用基于样式的生成模型进行先验图像约束重建
论文链接:https://www.aminer.cn/pub/6038bbfc91e011c1c59ed148 f=toutiao
这项研究提出了一个框架,用于估计与已知的先前图像语义相关的目标对象。优化问题是在基于风格的生成模型的解缠结潜在空间中制定的,并且使用先验图像的解缠结潜在表示施加语义上有意义的约束。
5. 论文标题:Adversarial Purification using Score-Based Generative Models
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af5109 f=toutiao
我们提出了一种基于EBM 的新型对抗性净化方法,并通过去噪得分匹配(DSM)进行训练。我们证明了在DSM 上训练的EBM 可以通过几个步骤快速清理受攻击的图像,并且我们进一步介绍了一种简单有效的随机清理方案,该方案在清理之前向图像中注入随机噪声。
8深度学习1.论文标题:使用自适应基础层进行功能数据分析的深度学习
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af51e9 f=toutiao
我们引入了一种新的基础层神经网络,其中每个基础函数本身都是一个隐藏单元,以微神经网络的形式实现。我们的架构学习将简约降维应用于函数输入,仅关注与目标相关的信息,而不是输入函数中不相关的变量。
2. 论文标题:AUTOSAMPLING:Finding an effective data Sampling Schedule
论文链接:https://www.aminer.cn/pub/6051af8e9e795e94b643fbf5 f=toutiao
我们提出了一种自动采样方法来自动学习模型训练的采样计划,包括针对最佳局部采样计划的多个开发步骤和针对理想采样分布的探索步骤。
3. 论文标题:神经网络中的Hintons: 深度学习的量子场论观点
论文链接:https://www.aminer.cn/pub/6047921f91e0116b67c7936b f=toutiao
我们开发了一种用于深度学习的量子场论,其中输入信号以高斯状态编码,这是高斯过程的推广。我们将线性和非线性层表示为单个量子门,并展示如何将量子模型的基本激发解释为称为“hinton”的粒子。
4. 论文标题:测量基于深度学习的压缩感知的鲁棒性
论文链接:https://www.aminer.cn/pub/60265a1291e011821e023c35 f=toutiao
我们测量不同图像重建技术的鲁棒性,包括经过训练的神经网络、未经训练的网络和传统的基于稀疏性的方法。与之前的研究相比,我们发现经过训练和未经训练的方法都容易受到对抗性干扰。针对特定数据集进行调整的经过训练和未经训练的方法在分布变化方面都存在非常相似的问题。最后,我们演示了一种具有高重建精度的图像重建方法,并且在准确恢复细节方面也表现出色。
五
.论文名称:Quasi-Global Momentum: Accelerating Decentralized Deep Learning on Heterogeneous Data
论文链接:https://www.aminer.cn/pub/6023d3fa91e0119b5fbd97f1 f=toutiao
我们研究并识别了几种分散优化算法对不同程度数据异构的局限性。我们提出了一种新的基于动量的方法来缓解这种分散训练的困难。我们在不同的CV/NLP数据集(CIFAR-10, ImageNet, AG News和SST2)和一些网络拓扑(Ring和Social network)上进行了大量的经验实验。
<9>Meta Learning1.论文名称:Bridging Multi-Task Learning and Meta-Learning: Towards Efficient Training and Effective Adaptation
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af516c f=toutiao
我们首先证明了MTL与一类基于梯度的元学习(GBML)算法具有相同的优化公式。然后我们证明了对于具有足够深度的过参数化神经网络,MTL和GBML学习到的预测函数是接近的。
2.论文名称:A Distribution-Dependent Analysis of Meta-Learning
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af4f70 f=toutiao
本文以高斯噪声和高斯任务(或参数)分布下的固定设计线性回归算法为研究对象,给出了任意算法的转移风险的分布相关下界,并证明了一种新的、所谓的有偏正则化回归方法的加权版本,能够将这些下界匹配到一个固定的常数因子。
3.论文名称:Improving Generalization in Meta-learning via Task Augmentation
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af4e2f f=toutiao
我们提出了两种任务扩展方法,包括MetaMix和Channel Shuffle。MetaMix线性组合了来自支持集和查询集的样本的特性和标签。对于每一类样本,Channel Shuffle随机地用来自不同类的对应的信道子集替换它们的信道子集。
4.论文名称:Large-Scale Meta-Learning with Continual Trajectory Shifting
论文链接:https://www.aminer.cn/pub/602ba44091e0113d72356cf8 f=toutiao
我们证明,允许元学习者采取更多的内部梯度步骤,可以更好地捕获异构和大规模任务分布的结构,从而获得更好的初始化点。此外,为了增加元更新的频率,即使内部优化轨迹过长,我们提出估计任务特定参数的变化所需的初始化参数的变化。
5.论文名称:PACOH: Bayes-Optimal Meta-Learning with PAC-Guarantees
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af4ef5 f=toutiao
我们利用PAC-Bayesian框架进行了理论分析,并导出了新的元学习泛化边界。利用这些边界,我们开发了一类具有性能保证和有原则的元级正则化的pac最优元学习算法。当用高斯过程和贝叶斯神经网络作为基础学习者实例化我们的pac -最优超后验(PACOH)时,所得到的方法在预测精度和不确定性估计的质量方面都取得了最先进的性能。
<10>Multi-Agent Reinforcement Learning1.论文名称:Scaling Multi-Agent Reinforcement Learning with Selective Parameter Sharing
论文链接:https://www.aminer.cn/pub/602baf5491e0113d72356dfc f=toutiao
我们演示了参数共享方法对训练速度和收敛收益的影响,建立了当不加选择地应用时,它们的有效性高度依赖于环境。因此,我们提出了一种新的方法,通过对智能体的能力和目标进行划分,自动识别可能受益于共享参数的智能体。
2.论文名称:Learning Fair Policies in Decentralized Cooperative Multi-Agent Reinforcement Learning
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af528b f=toutiao
我们提出了一种新的神经网络结构,它由两个专门设计的子网络组成,以考虑公平性的两个方面。在实验中,我们证明了两个子网络对公平优化的重要性。我们的总体方法是通用的,因为它可以容纳任何 (sub)differentiable welfare函数。
3.论文名称:Coach-Player Multi-Agent Reinforcement Learning for Dynamic Team Composition
论文链接:https://www.aminer.cn/pub/60a4ff9f91e011e398b0d13f f=toutiao
在现实世界的多智能体系统中,具有不同能力的智能体都可以加入或离开某个团队,却不改变其首要目标。协调这种动态构成的团队是具有挑战性的:最优的团队策略随着构成的不同而不断变化。因此,我们提出了COPA,一个coach-player框架,来解决这个问题。
4.论文名称:Emergent Social Learning via Multi-agent Reinforcement Learning
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af5039 f=toutiao
本文研究了多智能体环境下,独立强化学习(RL)智能体是否可以学会利用社会性学习来提高其性能。通过混合多智能体和单独训练,我们可以获得使用社会性学习来获得技能的智能体,它们可以单独部署,甚至从一开始就比单独训练的智能体表现更好。
5.论文名称:Randomized Entity-wise Factorization for Multi-Agent Reinforcement Learning
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af4f2a f=toutiao
现实世界中,多智能体的设置经常涉及具有不同类型和数量的智能体和非智能体实体的任务;然而,在这些实体中经常会出现共同的行为模式。我们提出一个反事实的问题“当只考虑一个随机选择的观察实体的子组时,每个代理的预期效用是什么 ”由此识别出,我们可能在另一个任务中遇到的实体亚组中的状态-行为轨迹,并利用我们在该任务中所学到的信息来预测当前任务。
<11>Representation Learning1.论文名称:UniSpeech: Unified Speech Representation Learning with Labeled and Unlabeled Data
论文链接:https://www.aminer.cn/pub/6008014091e011d056eee7a9 f=toutiao
我们提出了一种统一的前训练方法UniSpeech来学习无标记和有标记数据的语音表示,其中监督语音CTC学习和语音感知对比自我监督学习以多任务的学习方式进行。所产生的表示可以捕获与语音结构相关程度更高的信息,并改进跨语言和领域的泛化。
2.论文名称:Decomposed Mutual Information Estimation for Contrastive Representation Learning
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af51fa f=toutiao
我们提出通过将一个视图分解成具有更多信息的子视图,并在分解后的视图之间应用链式法则的方法,将完整的MI估计问题分解成一系列较小的估计问题。这个表达式包含了无条件和有条件MI项的和,每个测量总的MI的适度块,这有助于通过对比界近似。
3.论文名称:Robust Representation Learning via Perceptual Similarity Metrics
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af5153 f=toutiao
我们提出了对比输入变形(CIM),一个表示学习框架,学习数据的输入空间转换,以减轻不相关的输入特征对下游性能的影响。我们的方法通过一个三元组损失来利用感知相似性度量,以确保转换保留任务相关的信息。通过经验,我们证明了我们的方法在任务上的有效性。
4.论文名称:Scaling Up Visual and Vision-Language Representation Learning With Noisy Text Supervision
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af4ed8 f=toutiao
我们利用了一个超过10亿图像替代文本对的噪声数据集,在概念性标题数据集中无需昂贵的过滤或后处理步骤即可获得。我们的视觉表示在转换到ImageNet和VTAB等分类任务时获得了强大的性能。
5.论文名称:Near-Optimal Representation Learning for Linear Bandits and Linear RL
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af4eba f=toutiao
我们将算法和分析扩展到低固有Bellman误差下线性值函数逼近的多任务情景RL。据我们所知,这是第一个描述多任务表示学习对RL中使用函数近似进行探索的好处的理论结果。
<12>Network1.论文名称:Learning Diverse-Structured Networks for Adversarial Robustness
论文链接:https://www.aminer.cn/pub/601bbfd191e011fcd67ef1b4 f=toutiao
我们认为NA和AT不能独立处理,因为给定一个数据集,ST中的最优NA将不再是AT中的最优NA。AT本身就是耗时的,而且在较大的搜索空间中直接搜索NAs是不可行的。因此,我们提出了一个不同结构的网络(DS-Net),以显著减少搜索空间的大小。
2.论文名称:Scaling Properties of Deep Residual Networks
论文链接:https://www.aminer.cn/pub/60b03f7491e0118b560feb1a f=toutiao
我们通过详细的数值实验研究了随机梯度下降训练权值的性质,以及它们随网络深度的变换。根据网络结构的某些特征,如激活函数的光滑性,人们可以得到另一个ODE极限,一个随机微分方程,或者两者都不能。这些发现对神经ODE模型作为深度ResNets的充分渐近描述的有效性提出了质疑,并指出了另一类微分方程作为深度网络极限的更好描述。
3.论文名称:Dense for the Price of Sparse: Improved Performance of Sparsely Initialized Networks via a Subspace Offset
论文链接:https://www.aminer.cn/pub/602bb7dc91e0113d72356eb0 f=toutiao
我们引入了一种新的“DCT plus Sparse”层结构,在只剩下0.01%可训练核参数的情况下,也能保持信息传播和可训练性。我们展示了用这些层构建并在初始化时进行修剪的网络的标准训练,在各种基准网络架构和数据集上实现了最先进的极端稀疏性精度。
4.论文名称:Weisfeiler and Lehman Go Topological: Message Passing Simplicial Networks
论文链接:https://www.aminer.cn/pub/6042234f91e0115d09aff3c1 f=toutiao
在图机学习中,单靠图片不能捕获许多复杂系统中出现的多层次交互,而且其表达能力也被证明是有限的。为了克服这些限制,我们提出了消息传递简单网络(MPSNs),这是一类在简单复合体(SCs)上执行消息传递的模型。为了从理论上分析模型的表达性,我们引入了一种用于区分非同构SCs的单纯维斯菲尔勒-雷曼(SWL)着色程序。
5.论文名称:A Modular Analysis of Provable Acceleration via Polyak\’s Momentum: Training a Wide ReLU Network and a Deep Linear Network
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af5184 f=toutiao
在本文中,我们首先回应了strongly convex quadratic问题,并证明了一个非渐近加速的Polyak动量线性速率。然后,我们证明了Polyak动量可以实现对单层宽ReLU网络和深度线性网络的加速训练,这可能是文献中最流行的两种研究优化和深度学习的典型模型。
<13>Gaussian Process1.论文名称:High-Dimensional Gaussian Process Inference with Derivatives
论文链接:https://www.aminer.cn/pub/602bb20691e0113d72356e3f f=toutiao
我们证明了在低数据条件$N
2.论文名称:Value-at-Risk Optimization with Gaussian Processes
论文链接:https://www.aminer.cn/pub/609e50b591e0113e7e2e00cd f=toutiao
本文提出了一种新的保证黑盒目标函数的VaR最大置信限(V-UCB)算法。为了实现这一点,我们首先推导出VaR的置信限,然后证明环境随机变量值的存在性(选择环境随机变量可以实现无悔),使VaR的置信限在目标函数在此值下的置信限之内。
3.论文名称:Scalable Variational Gaussian Processes via Harmonic Kernel Decomposition
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af521d f=toutiao
我们提出调和核分解(HKD),它利用傅里叶级数将一个核分解为正交核的和。我们的变分近似利用这种正交性,以较低的计算成本实现大量诱导点。我们证明了,在一系列回归和分类问题上,我们的方法可以利用输入空间的对称性,如平移和反射,并且它在可伸缩性和准确性方面显著优于标准变分方法。
4.论文名称:Lenient Regret and Good-Action Identification in Gaussian Process Bandits
论文链接:https://www.aminer.cn/pub/60264a4891e011821e023aff f=toutiao
我们研究了各种各样的\\emph{\\lenient regret}概念,其中所有接近最优的行为都招致零惩罚,并为GP-UCB提供了\\emph{\\lenient regret}的上界和一个消除算法,避免了通常的$O(√{T})$项(时间范围$T$)由于极大接近函数最大值而导致的结果。
5.论文名称:Bias-Free Scalable Gaussian Processes via Randomized Truncations
论文链接:https://www.aminer.cn/pub/602a4f4391e011a1a44cbe97 f=toutiao
本文分析了两种常用的技术:早期截断共轭梯度(CG)和随机傅里叶特征(RFF)。我们发现两种方法都对学习的超参数引入了系统性偏差:CG倾向于欠拟合,而RFF倾向于过拟合。我们使用随机截断估计来解决这些问题,消除偏差以换取增加的方差。
<14>Sample Complexity1.论文名称:On the Sample Complexity of Causal Discovery and the Value of Domain Expertise
论文链接:https://www.aminer.cn/pub/6021172891e0113bfb1dc666 f=toutiao
我们在没有CI oracle的情况下分析了因果发现算法的样本复杂性。我们的方法允许我们根据数据样本来量化领域专业知识的价值。最后,我们用数值例子证明了这些样本率的准确性,并量化稀疏性先验和已知因果方向的好处。
2.论文名称:Towards Tight Bounds on the Sample Complexity of Average-reward MDPs
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af5209 f=toutiao
在生成模型的条件下,我们证明了无限视界平均回报马尔科夫决策过程(MDP)中
最优策略的样本复杂度的新上界和下界。当所有策略的概率转移矩阵的混合时间不超过
时,我们提出了一种利用每个状态-动作对的
(oblivious)样本来解决该问题的算法。
3.论文名称:A Lower Bound for the Sample Complexity of Inverse Reinforcement Learning
论文链接:https://www.aminer.cn/pub/60475b4891e0116b67c79198 f=toutiao
本文给出了有限状态、有限作用IRL问题的样本复杂度的信息理论下界。研究了用球码构造
-严格可分离IRL问题的几何结构。导出了系综尺寸的性质以及产生的轨迹间的kullbak – lebler散度。
4.论文名称:Tightening the Dependence on Horizon in the Sample Complexity of Q-Learning
论文链接:https://www.aminer.cn/pub/602a47e991e011a1a44cbe04 f=toutiao
对于任何
,我们将同步Q-learning的样本复杂度提高到
(最高可达对数因子),从而导致有效层位
的有序改进。我们分析的一个关键因素在于建立新的错误分解和递归,这可能有助于分析其他Q-learning变量的有限样本性能。
5.论文名称:Exponential Reduction in Sample Complexity with Learning of Ising Model Dynamics
论文链接:https://www.aminer.cn/pub/606adc0a91e011f23f9096a2 f=toutiao
我们研究由动态过程产生的相关样本重建二值图形模型的问题,这在许多应用中是很自然的。我们分析了基于交互筛选目标和条件似然损失的两种估计的样本复杂度。我们观察到,对于来自远离平衡的动态过程的样本,与快速混合的动态过程相比,样本复杂度呈指数级下降。
<15>Machine Learning
1.论文名称:Model-Based Reinforcement Learning via Latent-Space Collocation
论文链接:https://www.aminer.cn/pub/604f1e209e795e5feaac5530 f=toutiao
我们提出了一种利用概率潜在变量模型使搭配适应于视觉规划的规划算法。在具有稀疏奖励和长期目标的具有挑战性的视觉控制任务中,采用我们规划算法的基于模型的强化学习agent显著优于先前的基于模型的agent。
2.论文名称:Exploiting structured data for learning contagious diseases under incomplete testing
论文链接:https://www.aminer.cn/pub/60501a3c9e795e8427406a43 f=toutiao f=toutiao
我们的分析表明,在有利的条件下,不完全测试可能足以实现相对较好的样本外预测误差。当未经检测的感染者具有与未经检测的健康者完全不同的特征,当被感染的人“强大”,这意味着他们感染了周围的大多数人时,有利的条件就出现了。我们开发了一种预测感染的算法,并证明它在模拟数据上优于基准。
3.论文名称:Decoupling Exploration and Exploitation for Meta-Reinforcement Learning without Sacrifices
论文链接:https://www.aminer.cn/pub/6051a93e9e795e94b6414afe f=toutiao
原则上,通过最大化任务性能,可以端到端学习最佳的探索和开发。然而,学习探索需要良好的开发来衡量探索的效用,但学习开发需要通过探索收集信息。优化勘探和开发的单独目标可以避免这个问题,但是先前的元rl勘探目标会产生收集与任务无关的信息的次优策略。我们通过构建自动识别任务相关信息的开发目标和仅恢复此信息的探索目标来缓解这两个问题。
4.论文名称:Self-supervised and Supervised Joint Training for Resource-rich Machine Translation
论文链接:https://www.aminer.cn/pub/6054578d9e795e40330f45ab f=toutiao
在本文中,我们提出了一种联合训练方法F2-XEnDec,将自监督和监督学习相结合来优化NMT模型。为了利用互补的自监督信号进行监督学习,NMT模型通过一种称为交叉编码器-解码器的新过程,在单语和并行句子的样本上进行训练。
5.论文名称:Knowledge Enhanced Machine Learning Pipeline against Diverse Adversarial Attacks
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af520d f=toutiao
我们提出了一种知识增强机器学习管道(KEMLP),通过一阶逻辑规则将领域知识(即不同预测之间的逻辑关系)集成到概率图形模型中。我们通过将一组基于其逻辑关系的弱辅助模型集成到执行目标任务的主DNN模型来开发KEMLP。
<16>Sparse
1.论文名称:Leveraging Sparse Linear Layers for Debuggable Deep Networks
论文链接:https://www.aminer.cn/pub/609bafab91e0113c3c76936c f=toutiao
我们展示了如何拟合稀疏线性模型在学习的深度特征表示可以导致更多的可调试神经网络。这些网络保持了高度的准确性,同时也更容易被人类解释,正如我们通过数字和人体实验定量地证明的那样。
2.论文名称:Do We Actually Need Dense Over-Parameterization In-Time Over-Parameterization in Sparse Training
论文链接:https://www.aminer.cn/pub/602101eb91e0113bfb1dc4e3 f=toutiao
在本文中,我们通过提出在稀疏训练中实施过参数化(ITOP)的概念,引入了一种新的视角来训练具有最先进性能的深度神经网络,而不需要昂贵的过参数化。从一个随机稀疏网络出发,在训练过程中不断探索稀疏连通性,可以对时空流形进行过参数化,缩小稀疏训练和密集训练之间的表达性差距。
3.论文名称:Mind the box: $l_1$-APGD for sparse adversarial attacks on image classifiers
论文链接:https://www.aminer.cn/pub/603f5b8b91e011cacfbda26e f=toutiao f=toutiao
我们证明,当同样考虑图像域$[0,1]^d$时,所建立的$ l1 $-投影梯度下降(PGD)攻击是次优的,因为它们没有考虑到有效的威胁模型是$ l1 $-ball和$[0,1]^d$的交集。我们研究了该有效威胁模型的最陡下降阶跃的期望稀疏性,并证明了对该集合的精确投影在计算上是可行的,并产生更好的性能。
4.论文名称:Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af4f6a f=toutiao
我们提出了一种同伦算法,在一个统一的框架内共同处理稀疏性和扰动界。每次迭代,我们的算法的主要步骤是通过利用非单调加速近端梯度法(nmAPG)对非凸规划优化一个l_0正则化的对抗损失;接下来是一个l_0更改控制步骤,以及一个可选的攻击后步骤,用于避免糟糕的局部最小值。我们还将算法扩展到结构稀疏正则化的处理。
5.论文名称:SigGPDE: Scaling Sparse Gaussian Processes on Sequential Data
论文链接:https://www.aminer.cn/pub/609a2c5791e011a44725cb08 f=toutiao
我们开发了SigGPDE,一个新的可扩展稀疏变分推理框架,用于序列数据上的高斯过程(GPs)。首先,我们构造支持稀疏逼近的诱导变量,使结果证据下界(ELBO)不需要任何矩阵反演。其次,我们证明GP签名核的梯度是一个双曲偏微分方程(PDE)的解。
<17>High-Dimensional
1.论文名称:Classifying high-dimensional Gaussian mixtures: Where kernel methods fail and neural networks succeed
论文链接:https://www.aminer.cn/pub/60362ef591e011703cfaf91d f=toutiao
我们从理论上证明了只有少量隐藏神经元的两层神经网络(2LNN)在简单高斯混合分类任务上的性能优于核学习。我们研究了样本数量与输入维数成线性比例的高维极限,并表明,虽然小2LNN在这个任务上获得了接近最优的性能,但懒惰训练方法,如随机特征和核方法不能。
2.论文名称:Snowflake: Scaling GNNs to High-Dimensional Continuous Control via Parameter Freezing
论文链接:https://www.aminer.cn/pub/603f512991e011cacfbda1a7 f=toutiao
我们确定了导致糟糕伸缩性的常见GNN体系结构的弱点:在编码、解码和传播消息的网络中的mlp中过拟合。为了解决这个问题,我们引入了Snowflake,一种用于高维连续控制的GNN训练方法,它冻结了网络中存在过拟合的部分参数。Snowflake显著提高了GNN在大型代理上的运动控制性能,现在与MLP的性能相匹配,并具有优越的传输特性。
3.论文名称:Solving high-dimensional parabolic PDEs using the tensor train format
论文链接:https://www.aminer.cn/pub/603633b991e011703cfaf975 f=toutiao
在本文中,我们认为张量系为抛物偏微分方程提供了一个吸引人的近似框架:将倒向随机微分方程和张量格式的回归型方法的重新公式结合起来,有望利用潜在的低秩结构,使其既能压缩又能高效计算。根据这个范式,我们开发了新的迭代方案,包括显式和快速或隐式和准确的更新。
4.论文名称:High-Dimensional Gaussian Process Inference with Derivatives
论文链接:https://www.aminer.cn/pub/602bb20691e0113d72356e3f f=toutiao
我们证明了在低数据条件$N
5.论文名称:Multiscale Invertible Generative Networks for High-Dimensional Bayesian Inference
论文链接:https://www.aminer.cn/pub/609cfb7e91e01118a99b936d f=toutiao
在两个高维贝叶斯逆问题上,我们展示了MsIGN方法在后验逼近和多模式捕获方面优于以往的方法。在自然图像合成任务中,MsIGN比基线模型在每维比特数上取得了更好的性能,并且在中间层产生了良好的神经元解释能力。
<18>Policy Optimization
1.论文名称:OptiDICE: Offline Policy Optimization via Stationary Distribution Correction Estimation
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af5197 f=toutiao
在本文中,我们提出了一种离线RL算法,以更有原则的方式防止高估。我们的算法OptiDICE,直接估计最优策略的平稳分布修正,不依赖于策略梯度,不像以前的离线RL算法。通过使用广泛的基准数据集进行离线RL,我们展示了OptiDICE与最先进的方法的性能竞争。
2.论文名称:On Proximal Policy Optimization\’s Heavy-tailed Gradients
论文链接:https://www.aminer.cn/pub/6034cbf991e01122c046f657 f=toutiao
在本文中,我们提出了一个详细的实证研究来描述PPO代理报酬函数梯度的重尾性质。我们证明了梯度,特别是对于行动者网络,表现出明显的重尾性,并且随着代理的策略偏离行为策略(即随着代理进一步偏离策略),梯度会增加。进一步的研究表明,替代奖励的似然比和优势是所观察到的重尾性的主要来源。
3.论文名称:Muesli: Combining Improvements in Policy Optimization
论文链接:https://www.aminer.cn/pub/6076c02691e0113d725743ae f=toutiao
我们提出了一种新的策略更新,将正则化策略优化与模型学习相结合作为辅助损失。更新(从今以后的Muesli)匹配了MuZero在Atari的最先进的性能。值得注意的是,Muesli没有使用深度搜索:它直接与政策网络起作用,其计算速度可与无模型基线相媲美。
<19>Graph
1.论文名称:Graph Convolution for Semi-Supervised Classification: Improved Linear Separability and Out-of-Distribution Generalization
论文链接:https://www.aminer.cn/pub/602b974491e0113d72356bff f=toutiao
一种新的学习模型已经出现,它在最基本的层面上依赖于首先应用图卷积后对数据进行分类。为了理解这种方法的优点,我们研究了混合高斯分类,其中数据对应于随机块模型的节点属性。我们证明,与混合模型数据本身相比,图卷积扩展了数据线性可分的范围,其中$D$是一个节点的期望度。
2.论文名称:DeepWalking Backwards: From Embeddings Back to Graphs
论文链接:https://www.aminer.cn/pub/602e350891e01144a29ccc8b f=toutiao
很少有人研究流行的嵌入方法到底对什么信息进行了编码,以及这些信息如何与下游机器学习任务的表现相关。我们通过研究嵌入是否可以(近似地)恢复用于生成它们的图来解决这个问题。
本文和图片来自网络,不代表火豚游戏立场,如若侵权请联系我们删除:https://www.huotun.com/game/591990.html