智能机器将变得无处不在。人工智能将改变世界。
对许多人来说,这是一种监督的ML,ML从你的(培训)数据中学习,让它变得聪明,然后再进行预测。它的预测被用于任务自动化,从设置恒温器等简单任务到更复杂的任务(比如自动驾驶汽车)。这些预测也被主题专家用来帮助决策--商业智能就是一个典型的例子。它们也被用于诸如TikTok之类的流行应用中。
换句话说,这主要是关于预测。ML已经建立了一个预测你的世界的统计模型。但ML还有另一个重要且经常被忽视的特性:它从数据中推断洞见。广义地说,它研究数据中的各种参数(变量)是如何相互关联的。
假设你对确定影响收缩压的因素感兴趣。使用电子表格,你可以记录可能影响血压的参数:睡眠时间、有氧运动时间、药物、饮食习惯、工作压力等等。这些数据培训可以改进你的统计模型,以了解你的心脏行为,预测你的收缩压。如上所述,通常使用ML来预测。
接下来,你想知道这些参数之间的关系及其对收缩压的影响。例如,如果你在工作中感到压力,如果你做有氧运动20分钟或以上,或者晚上散步,你的收缩压可能会恢复到正常水平,但不幸的是,药物可能没有那么大的帮助。
数据中隐藏着更多这样的规则,根据你的心脏行为,这些规则是个性化的。想象一下,通过这些洞察力,我们能很好地控制我们的血压!在ML中发现预测收缩压的能力,甚至比挖掘出来的数据更重要。
我们如何才能让ML深入挖掘这些洞察力?
它需要透明的ML,因为统计模型变得越来越复杂,这变得越来越困难。
最近,随着"可解释人工智能"的发展,透明度领域取得了进展,这说明了预测背后的原因,列出了影响参数及其在预测结果中的相对重要性(在我们的医疗保健例子中的收缩压)。
华盛顿大学(University Of Washington)的本地可解释模型不可知论解释(LAM)是ML解释人工智能的第一步,它使用更简单、更透明的模型来近似复杂和不透明的模型。然而,还需要做更多的工作,尤其是当建立透明模型的培训数据难以导出时,导致误导性解释。一些较新的ML平台,比如EazyML,已经成功地用启发式方法解决了这个问题,尤其是在分类方面。
尽管研究还必须继续,但ML已经足够成熟,可以提供数据洞察。在我们的收缩压医学例子中,想象一下一位心脏病专家,他能就如何保持血压水平保持正常提供具体、个性化的建议。机器学习的数据洞察力将开启一个新时代,帮助我们更好地了解我们周围的世界。