面向从业者的可解释人工智能
[Explainable AI for Practitioners]
[美国] 迈克尔·蒙恩(Michael Munn)
[美国] 大卫·彼得曼(David Pitman) 著
陈志鸿 李广 译
ISBN 978-7-5766-0995-0
128.00元
本书
特色
○●○● INTRODUCTION
大多数中级机器学习书籍侧重于介绍如何通过提高准确性或降低预测误差来优化模型。然而,这种方法往往忽视了理解机器学习模型为什么以及如何做出预测的重要性。可解释性方法为更好地理解模型行为提供了必不可少的基本工具包,这本实用指南汇集了最先进的模型可解释性技术。经验丰富的机器学习工程师和数据科学家通过实践学习这些技术的工作原理,从而能更轻松地在日常工作流程中应用这些工具。
“这本书通过真实案例、权衡取舍以及将深奥的科学知识与实用代码相结合,为模型可解释性提供了一个轻松却全面的介绍。”
—— Harsha Nori
工程经理/负责任人工智能部门
微软研究院
“这本书独特地采用了实用主义的方式,注重算法之外的人性因素,是所有机器学习从业者的必读之作。”
—— Salem Haykal
区域技术负责人/GCP云AI与行业解决方案
Alphabet/GCP
Michael Munn是谷歌的软件研发工程师,他致力于更好地理解机器学习的数学基础。
David Pitman是谷歌云AI平台的高级工程师,领导可解释性AI团队。
陈志鸿,博士,研究员,中国航天科技创新研究院未来智能系统中心副主任,主要从事飞行器智能机构、空间智能系统研究工作,先后参与国家重点研发计划、省部级重点项目。发表SCI、EI论文30余篇,获授权发明专利20余项。
李广,中国航天科技创新研究院副高级研究员,毕业于哈尔滨工业大学电气工程专业,曾任阿里巴巴达摩院自动驾驶实验室技术专家,长期致力于机器人感知决策控制技术与人工智能方向的研究,获授权发明专利10余项。
这本重要的图书提供了
一些最有用、最常用的可解释性技术,突出其优缺点,帮助选择最适合的工具。
实施这些技术的技巧和最佳实践。
与可解释性互动的指南,并帮助避免常见的陷阱。
将可解释性融入机器学习工作流程的知识,帮助构建更稳健的机器学习系统。
关于可解释AI的建议,包括如何将这些技术应用于处理使用表格、图像或文本数据的模型。
使用Keras、TensorFlow 2.0、PyTorch和HuggingFace等知名可解释性库构建的模型的Python代码示例。
购书链接
长按识别二维码 进入官方店铺购买
淘宝店铺:南京东南大学出版社旗舰店
供稿:张 烨
制作:颜庆婷
审核:唐 允
◆ 想了解更多书中精彩内容:
★点击“阅读原文”进入东南大学出版社官方微店在线购买
★手机淘宝搜索“南京东南大学出版社旗舰店”店铺也可购买
◆ 进入公众号首页,点击右上方“···”→“设为星标”,第一时间获取我社信息
弘毅乐群 精书成业
长按扫码关注我们