其乐融融的IT技术小站

通过使用因果机器学习做出有效的可操作决策以优化业务KPI

​译者 | 李睿

审校 | 孙淑娟 ​

在不同的场景中,常用的机器学习建模技术可能会误解数据中的真实关系。因此在这里试图改变这种范式,以基于估计因果关系和衡量目标关键绩效指标(KPI)结果的治疗效果,找到超越虚假相关性的可操作见解。

因果机器学习的动机​

假设获得了某家企业在过去一年某一产品的历史数据或观察数据,面这一产品有5%的顾客流失,那么这家企业的目标是通过开展有针对性的活动来降低流失率。通常会构建经典的客户流失预测性倾向模型(倾向性评分——客户行为的协变量流失概率),并通过选择阈值规定折扣或向客户追加销售/交叉销售。

现在,企业管理人员想要预测客户流失的有效性,例如该公司的客户是由于促销活动或营销活动而保留下来的,还是与其相反?这需要传统的AB测试标准实验,实验需要一些时间,而且在某些情况下也不可行并且成本高昂。

因此需要思考倾向模型之外的问题。具有监督的流失预测是有用的,但不是每次都有用,因为它缺乏在假设情况下推荐下一个最佳行动的建议。针对那些能够积极响应企业的营销建议而不会在失败案例上浪费资金的个性化客户,从而采取下一个最佳行动/干预并改变未来结果(例如最大限度地提高保留率)的问题是因果推断中的提升建模。

在理解消费世界中的某些反事实问题时,例如如果提高或降低零售价格,消费者的行为会如何改变(价格对行为模式的影响是什么)?如果企业向顾客展示广告,他们会不会购买产品(广告对购买的影响)?这其中包括通过因果建模的数据驱动决策。

在通常情况下,预测或预测问题关注的是在下个月有多少人会订阅,而因果问题则是如果某些政策发生改变会发生什么情况(例如,如果开展一项活动会有多少人订阅)。

因果分析将更进一步。它旨在推断数据生成过程的各个方面。借助这些方面,人们不仅可以推断静态条件下事件的可能性,还可以推断变化条件下事件的动态。这种能力包括预测行动的效果(例如,治疗或政策决定),确定所报告事件的原因,以及评估责任和归因(例如,事件x对于事件y的发生是否必要或足够)。

当人们使用监督机器学习使用伪相关模式的预测模型时,隐含地假设事情将像过去一样继续。与此同时,由于基于预测结果做出的决定或采取的行动,正在以经常打破这些模式的一种方式积极地改变环境。

从预测到决策​

对于决策,需要找到导致结果的特征,并估计如果特征发生变化,结果将如何改变。许多数据科学问题是因果问题,在决策场景中,估计反事实很常见。

  • A/B实验:如果改变网站上按钮的颜色,它是否会带来更高的参与度?
  • 政策决策:如果采用这种治疗/政策,它将如何导致结果的改变?这会带来更健康的病人/更多的收入吗?
  • 政策评估:企业在过去所做的改变或直到现在所知道的,以及结果变化的方式,制定的政策是帮助还是阻碍了试图改变的产品?
  • 信用归因:人们购买商品是因为看到了广告吗?他们会购买吗?

什么是因果关系和因果效应? ​

如果一个行动或治疗(T)导致了一个结果(Y),当且仅当该行动(T)导致了结果(Y)的改变,保持其他一切不变。因果关系意味着通过改变一个因素,可以改变另一个因素。

例如:如果阿司匹林能缓解头痛,当且仅当阿司匹林能使头痛的情况发生变化。

如果市场营销能够带来销售额的增长,当且仅当营销活动能够带来销售额的改变,那么其它一切便能够保持不变。

因果效应是Y随T的单位变化而变化的幅度,而不是相反:

Causal effect = E [Y | do(T=1)] - E [Y | do (T = 0)] (Judea Pearl’s Do-Calculus) 

因果推断需要领域知识、假设和专业知识。微软ALICE研究团队开发了DoWhy和EconML开源库,让人们的工作和生活更轻松。任何因果分析的第一步都是提出一个明确的问题:

  • 对什么治疗/行动感兴趣?
  • 想考虑什么样的结果?
  • 哪些混杂因素可能与结果和治疗相关?

因果分析管道:基于深度学习的端到端因果推断(DECI)(微软专利)。

因果发现-因果识别-因果估计-因果验证。

负责任的人工智能仪表板(Azure Machine Learning Studio) :原因分析​

该功能基于对模型注册表中拟合模型的解释,如果对相同变量有因果关系理解,则可以探究可能发生的情况。可以观察不同特征的因果效应,并将其与异质效应进行比较,可以观察到不同的群体,以及什么特征或政策对它们最有效。

  • DECI:提供了一个端到端因果推断的框架,也可以单独用于发现或估计。
  • EconML:提供多种因果关系估计方法。
  • DoWhy:提供多种识别和验证方法。
  • ShowWhy:在用户友好的图形用户界面(GUI)中为因果决策提供无代码端到端因果分析。

总结​

现代机器学习和深度学习算法可以在解释黑盒算法的数据中找到复杂的模式,他们的解释可能意味着机器学习算法从世界上学到了什么。

当将这些学习过的机器学习算法应用到社会中,以制定诸如贷款批准和健康保险政策等政策决策时,它所了解的世界并不一定能很好地反映世界上正在发生的事情。

然而,数据驱动的预测模型是透明的,但不能真正解释。可解释性需要一个因果模型(表二谬论证明了这一点)。因果模型可靠地代表了世界上的一些过程。可解释的人工智能应该能够进行推理,从而做出有效的决策,而不会产生偏见。

原文标题:​​Causal Analysis in Azure Machine Learning Studio to answer your Causal questions through an end-to-end automated framework​​作者:Hari Hara

赞 ()
分享到:更多 ()

相关推荐

内容页底部广告位3
留言与评论(共有 0 条评论)
   
验证码: