在人工智能与大数据时代,优化算法已成为机器学习与数据科学的核心支柱。本书以独特的应用视角,将抽象的数学理论与实际工程问题紧密结合,为读者架起了一座从理论到实践的桥梁。 本书由优化领域权威学者Stephen J. Wright和Benjamin Recht撰写,旨在为读者提供一本条理清晰、系统全面的优化技术指南,尤其聚焦数据科学与机器学习领域的核心优化技术。书中详细阐述了基本优化算法,并分析了它们的收敛性和复杂度。全书共11章,第1章通过典型案例阐释优化在现代数据分析中的应用;第2~10章深入剖析多种核心算法,包括加速梯度法、随机梯度法(机器学习的核心算法)、坐标下降法(高效处理高维问题的利器)、简单约束问题的梯度法、具有非平滑项的凸优化问题的理论和算法,以及约束优化问题的对偶方法;第11章拓展至深度学习与控制领域的梯度计算方法(如自动微分、反向传播的优化视角)。
本书由威斯康星大学Stephen J. Wright与加州大学伯克利分校Benjamin Recht教授联袂撰写,内容源自两所名校机器学习与优化课程讲义,经多年教学实践打磨而成。全书系统阐述数据分析与机器学习中的优化理论,涵盖梯度法、随机梯度法、坐标下降法等核心算法,并深入讲解深度学习中的梯度计算方法。每章配备习题,理论与实践紧密结合,既适合作为高年级本科生及低年级研究生教材,也适合作为机器学习工程师与科研人员的重要参考资料。译本由Airbnb和Meta资深机器学习工程师精心翻译,著译双馨。
斯蒂芬·J. 赖特 (Stephen J. Wright) 现任威斯康星大学麦迪逊分校George B. Dantzig教授、 Sheldon Lubar讲席教授,以及 Amar和Balinder Sohi计算机科学教授,同时担任威斯康星州发现研究所(Wisconsin Institute for Discovery)的研究员。他主要研究计算优化及其在数据科学和科学工程其他领域的应用。他是美国工业与应用数学学会(SIAM)会士,曾获2014年IEEE W. R. G. Baker杰出论文奖、2020年INFORMS优化学会Khachiyan终身成就奖以及2020年NeurIPS时间检验奖。他著有多部优化领域经典教材与参考书,包括Primal Dual Interior-Point Methods(1987)和Numerical Optimization(2006)。 本杰明·雷希特 (Benjamin Recht) 加州大学伯克利分校电气工程与计算机科学系副教授。其研究团队致力于通过运用优化、统计和动力系统的数学工具,提升机器学习系统在动态不确定环境中的稳健性。他曾获总统科学家与工程师早期职业奖、Alfred P. Sloan研究奖、2012年SIAM/MOS拉格朗日连续优化奖、2014年Jamon奖、2015年William O. Baker研究倡议奖,以及2017年和2020年NeurIPS时间检验奖。