Ежегодная конференция NeurIPS — одна из трёх самых значимых конференций (наряду с ICLR и ICML) в области машинного обучения и data science, а сборники, публикуемые по её итогам, обладают самым высоким импактом в этой сфере. В этом году в него попали шесть статей сотрудников Лаборатории методов математической оптимизации МФТИ.
Вот эти работы:
- Exploring Jacobian Inexactness in Second-Order Methods for Variational Inequalities: Lower Bounds, Optimal Algorithms and Quasi-Newton Approximations.
- Acceleration Exists! Optimization Problems When Oracle Can Only Compare Objective Function Values.
- Federated Optimization Algorithms with Random Reshuffling and Gradient Compression.
- Optimal Flow Matching: Learning Straight Trajectories in Just One Step.
- Achieving Linear Convergence with Parameter-Free Algorithms in Decentralized Optimization.
- Lower Bounds and Optimal Algorithms for Non-Smooth Convex Decentralized Optimization over Time-Varying Networks.