Professional Documents
Culture Documents
正常相对于异常患者的比例要高。反映在实际临床上,例如骨髓白细胞, 其中正常白细
胞的数量要比异常白细胞多几个数量级。同时人体中不同类别的细胞本身比例就存在很大
的差异。因此在设计人工智能模型的过程中,类别之间不平衡的问题就会凸显出来。一个
细胞类别数量少就存在现有数据不能覆盖该类的多数特征,而且训练模型过程中要在过拟
合和训练不充分中间找平衡点。现有的方法如数据增强,改进损失函数和用网络生产新的
样本等都只能解决部分问题。医疗图像数据另外的一个特点就是一些诊断存在模糊的边界。
一方面是医学发展本身的局限,对一些疾病的认识还有待更深层次的探究,同时由于医生
的背景不同诊断时基于的信息有差异,导致图像样本的标注存在差异,多个专家诊断的结
果存在一致性不强的问题。现有的方法主要基于融合多个专家的信息去减弱不一致性的影
响。随着人工智能算法在医疗图像的应用越来越深入,这些问题会更加凸显,成为人工智
能在医疗图像诊断发展的瓶颈。
目前人工智能在医疗影像领域主要关注于图像本身的信息。例如通过分析胸部的 X 光片
的图片诊断肺炎, 基于细胞图像的形态给出诊断意见等。而实际临床诊断过程中医生会
综合患者的其它信息给出诊断意见, 例如病人的病史,年龄,性别等,同时还会参考其
它的检查结果。现有的多数人工智能模型仅仅基于图像的信息,忽略了其它的诊断依据。
由于图像,文字(病史)以及其它定量(年龄,性别以及检查报告)的信息结构存在很大的差
异。能将不同信息有效融合的模型涉及到图像处理,自然语言处理等多个领域。因此如何
将多组信息有效的融合将是一个富有创新性同时充满挑战的问题。
影响人工智能在医疗诊断领域大范围应用,辅助医生高效的诊断的一个重要的制约即是人
工智能模型的可解释性。现有的人工智能模型能够很好的学习,认知和决策。但是却受限
于针对特定决策不能给出明确的决策依据。因此需要建立一个具有可解释的模型,同时该
模型还要有不低于当前主流的准确率。其解释性可以被人类理解并信任。可解释性具体包
括,能对决策给出可信的依据,明确其边界即模型的优点和缺点,同时对于其诊断结果可
以预期。目前有一些文献针对对模型提取的特征可视化做了很多工作,但是相对于能被人
类理解并信任还存在距离。
研究深度学习模型损失函数的曲面变化情况,将有助于理解深度学习模型。深度学习是一
个数据驱动的模型, 其参数相当于机器学习模型要多几个数量级。其模型复杂同时缺乏
基础理论的支持。 对于深度学习为何能通过卷积和现有的网络结构能够达到一个比较好
的效果,目前学术界尚无定论。因此深度学习是一个黑盒子。深度学习主要是有监督的学
习, 通过随机梯度下降和反向传播算法去优化其损失函数。 该损失函数曲面上存在极小
点,局部极小点和鞍点等,参数的每一次更新都会引起曲面的变化。这些都对理解深度学
习模型有很大的帮助。 而关于这个方向还需进一步的深入研究。我们希望做一些有意义
的尝试。