本文来源于:金融信息、人工智能和人的密切结合,使得智能人机协作成为普遍趋势。人工智能技术的快速发展也面临着许多困难和挑战。其中,如何以易于理解的方式向人类解释人工智能技术的基本原理、自动决策机制、潜在风险和防范措施,已成为开发可靠、安全、可靠的人工智能的首要任务。在此背景下,来自机器学习、计算机视觉、自然语言处理、生物医药、金融、推荐系统等应用领域的12位著名专家,包括华夏基金首席数据官陈逸新、杨强、范立新、朱军、张全石、朱松春、陶大成、崔鹏、周少华、刘琪、黄宣静、张永锋,联合撰写了《可解释人工智能导论》,现已上市

解释人工智能导论全面介绍了可解释人工智能的基本知识、理论方法和工业应用。这本书分为三个部分,共11章。第一章揭示了数据驱动人工智能系统决策机制,提出了基于人机交互场景的可解释人工智能范式。第2~5章 介绍了各种可解释人工智能技术方法,包括贝叶斯方法、基于因果启发式的稳定学习和反事实推理、基于and或图模型的人机协同解释和深层神经网络解释。第6~10章分别介绍了可解释人工智能在生物医学、金融、计算机视觉、自然语言处理、推荐系统领域的应用案例,并详细说明了可解释性在司法、城市管理、安全和制造业等实际应用中的积极作用。第11章总结了整本书,并讨论了可以解释人工智能研究的挑战和未来发展趋势

为什么我们应该强调人工智能的可解释性?可解释性在日常生活中随处可见。例如,当医生向患者解释诊断结果和治疗措施时,他应该向患者解释好病因和治疗方法,以便患者能够放心。然而,由于核心AI算法,尤其是深度学习算法,它们通常运行在类似于;“黑匣子”;在的工作模式下,人工智能系统的运行结果无法被人类以合理的方式理解和识别。在涉及人身和财产安全的主要领域,如金融、医疗、自动驾驶等,模型的可解释性已成为决定用户是否信任模型的关键 华夏基金首席数据官陈一新提到,在金融领域机器学习的可解释性往往需要面对各种对象,包括开发人员、用户、应用程序用户金融监管、公众等。不同对象的价值是什么;“可解释性”;虽然要点不同,但都有其必要性。对于开发人员而言;“可解释性”;确保后续优化和改进过程能够有效进行;对于金融工具的使用者而言,“;“可解释性”;机器学习模型可以像其他传统金融理论或公式一样被理解和接受;对于应用程序用户,例如使用模型投资研究人员,“;“可解释性”;它可以详细描述模型给出的不同资产定价结果;对于金融监管机构而言;“可解释性”;可以保证从全过程约束人工智能模型,防范金融风险;对公众而言,任何学科的深入发展都是不可或缺的,人们需要谨慎监督金融机构的决策

金融人工智能是一个发展中的领域。随着社会共识的加深和金融人工智能解释性相关法律法规的不断完善,可解释性将成为金融人工智能长期可持续应用的必要原则之一。据了解,目前,华夏基金正在积极探索并尝试将可解释机器学习应用于基金业务领域。AI技术被用作辅助投资工具,帮助评估海量数据集、动态股票筛选、提高投资效率等领域

打开人工智能“黑盒” 华夏基金首席数据官参与撰写书籍上市

相关推荐

前海联合基金何杰:把握时代机遇,更好发挥专业职能疫情

TVB艺人离巢好发展?黄德斌事业迎第二春,老戏骨刘江过档对台黄德斌TVB刘江