文章详情

高光谱成像技术:为结直肠息肉病理诊断开辟无创检测新途径

日期:2025-11-13 05:32
浏览次数:5
摘要:高光谱成像技术在医学诊断领域展现出广阔的应用前景。高光谱成像能够在单一图像中同时获取组织的空间结构与光谱信息,揭示细胞及组织在不同波段下的微观光学特征,实现对病变组织的无创、定量识别。其在医学诊断领域的应用方向主要包括:结直肠息肉及癌前病变的光学诊断,实现内镜检查中对腺瘤性与非肿瘤*息肉的实时区分;手术中快速组织鉴别与切缘定位,辅助医生精准切除病灶;病理切片分析与自动分型等

背景:

结直肠癌是全球范围内导致癌症死亡的**大原因,其防控关键在于早期发现和切除癌前病变——结肠直肠息肉。目前,结肠镜检查被认为是预防晚期结直肠癌、降低死亡率的优选方法。然而,在实际检查中,大多数发现的息肉体积较小(直径6–9 mm)或极小(1–5 mm),其中具备**病理特征或癌变潜能的比例极低。传统做法是对所有息肉进行切除并行病理检测,但这种方式增加了成本与工作负担。为此,提出了基于光学诊断的“切除并丢弃”策略,即利用高精度内镜成像技术,在内镜下准确判断息肉性质,从而省去部分病理检测。

然而,现有的光学诊断技术(如窄带成像 NBI、蓝光成像 BLI 等)在临床实践中仍存在局限:准确性依赖经验丰富的内镜医师,初学者诊断一致性差;同时,人工智能虽已用于辅助息肉识别,但受限于特异性不足、模型可解释性差及训练数据异质性大等问题,其推广仍受阻。

为克服上述困难,本研究引入了高光谱成像技术。该技术将数字成像与光谱分析相结合,可在每个像素层面同时捕获组织的形态与光谱特征,获取反映组织生化组成和病理变化的丰富光谱信息。与传统RGB影像相比,高光谱图像能揭示肉眼不可见的组织差异,为组织学性质识别和病理分级提供新的依据。

作者信息:彭程,山东大学齐鲁医院

期刊来源:Cancer Medicine

研究内容

本研究旨在开发并验证一种基于高光谱成像与深度学习(残差网络、迁移学习)的结直肠息肉组织分类算法,用于在内镜检查中快速区分肿瘤性与非肿瘤*息肉,从而推动人工智能辅助的“切除并丢弃”策略落地,提升诊断准确率并降低医疗成本。

实验设计

结肠镜操作过程中,所有息肉首先采用冷圈套器切除(CSP);对于直径 ≤ 3 mm、CSP 技术难度较大的微小病灶,则以活检钳完整钳除。本研究仅纳入息肉<1 cm 的新鲜黏膜标本;为使模型习得更高阶的病理特征,另同步采集进展期肿瘤活检。息肉或病灶一经切除/钳取,立即按标准化操作以高光谱(HS)相机成像,简要流程见图 1A。

高光谱成像数据采集使用的是双利合谱的GaiaMicro-V10 E-HR设备,其包括GaiaMicro系列高光谱相机、显微镜、校准白板、系统保持器和显微镜物镜。Gaia Micro系列包含内置推扫式高光谱相机,可推动空间以获得高光谱数据立方体。以1101行的空间大小收集图像,产生960×1101×360(行数×行数×波段数)。

所有结直肠息肉样本均经福尔马林固定、石蜡包埋后切片,并用H&E染色。两名具有丰富经验的病理学专家依据世界卫生组织结直肠肿瘤分类标准独立阅片并给出*终诊断。依据美国多学会结直肠癌工作组的共识,样本被分为非肿瘤性病变与肿瘤性病变两大类,其中肿瘤性病变进一步细分为非进展性腺瘤和进展性肿瘤。

研究方法

为平衡不同组织学标签的样本数量,我们针对每个类别实施数据增强:对每例样本随机选取多个视野的高光谱图像进行扩增。针对高光谱数据维度高、计算量大的难题,我们从原始高光谱立方体中提取光谱与空间信息,重构为二维(2D)图像;图 1B 直观展示了一维光谱与 2D 图像的对应关系。每张 HS 图像经降维后可生成 900 张 2D 图像。

该研究基于二维卷积神经网络(2D CNN)训练模型,用于实现结直肠病变图像的自动分类。该网络能够同时结合样本的光谱信息与空间信息,对组织特征进行综合分析。为了克服传统卷积神经网络在网络层数加深时容易出现的梯度消失与网络退化问题,并进一步提升模型性能,研究中采用了残差网络(ResNet)结构。是一种通过对现有模型参数进行微调,使其适应新任务或新数据特征的方法。在本研究中,研究者采用迁移学习策略,将预训练的ResNet 模型参数作为初始权重进行加载,然后在模型末端添加全连接层,并重新建立网络的所有层结构,以增强模型对不同病理类型结直肠息肉的识别能力(如图1B所示)。

图1 实验设计与工作流程 (A) 结肠镜检查中对新鲜息肉组织进行原位高光谱成像与光谱分析示意图。(B) 高光谱立方体的光谱-空间特性、立方体向二维图像的转换,以及残差神经网络模型架构示意。(C) 白光内镜图像与 HSI-AI 辅助诊断两周后内镜医师光学诊断能力评估。

为评估内镜医师对小及微小结直肠息肉的诊断能力,研究邀请了 4 名**内镜医师(累计 > 2 000 例筛查结肠镜)与 6 名初级内镜医师(累计 200–400 例)参与测试。测试采用问卷形式,基于测试集中病灶的白光内镜图像进行判断。为评价初级内镜医师和专家内镜医师的辅助诊断效率,分别对影像进行两次复查,首先对内镜医师进行独立测试,然后在内镜医师做出*终诊断前告知HSI-AI模型的预测结果,称为HSI-AI辅助诊断测试,两次测试间隔2周的清洗期,并对*终结果进行比较。

通过混淆矩阵(confusion matrix)评估模型的诊断性能。准确率(Accuracy)表示分类模型在所有观测样本中正确分类的比例。为**评价模型性能,还计算了灵敏度(sensitivity)、特异性(specificity)、阳性预测值(PPV)、阴性预测值(NPV),并通过受试者工作特征曲线(ROC curve)及其曲线下面积(AUC)来反映模型的整体诊断能力。次要评价指标包括初级与专家内镜医师的诊断表现,以及高光谱人工智能(HSI-AI)模型对其诊断的辅助效率。所有内镜医师的诊断指标均以中位数(median)与四分位距(IQR)表示。采用Mann–Whitney U 检验比较独立诊断与 HSI-AI 辅助诊断间的差异,双侧 p 值小于 0.05 被认为具有统计学意义。

结果

共纳入 73 名患者的 94 份组织样本(其中 64 份来自息肉切除术,30 份来自活检)。病理评估结果显示:53 份样本为低级别异型增生的管状腺瘤(非进展性腺瘤,NAA),28 份为非肿瘤*息肉(NNP),13 份为进展性肿瘤(AN),包括 6 例**别异型增生的管状腺瘤、3 例绒毛状腺瘤及 4 例腺癌。通过数据增强后,共从 161 张高光谱图像中生成 144,900 张二维图像,按 6:3:1 的比例划分为训练集、测试集与验证集。

通过比较不同组织类型的典型光谱曲线,发现三类组织(NNP、NAA、AN)在波长 406.9–662.1 nm 范围内的光谱形状与峰值大小存在明显差异。结果显示,在波长 575 nm 处,三类组织的反射率差异具有高度统计学意义(p < 0.001),说明高光谱成像可有效区分不同组织病理类型。

为验证数据的可靠性并探究二维图像数据的相关性,研究进行了两组模型实验。在**组模型中,研究者将二维图像随机打乱后进行训练,不考虑样本间的个体差异。结果显示,该模型在各组中均取得较高准确率,训练集和测试集的 AUC 分别为 0.97 与 0.96,说明同一样本不同区域的光谱图像之间具有良好的相关性与一致性(图 2A)。

图2 基于高光谱影像的残差神经网络自动诊断 (A, B) 神经网络在非肿瘤息肉 / 非进展期腺瘤 / 进展期肿瘤三分类任务中的训练、验证及测试结果。(C, D) 多种神经网络模型在自动分类任务中的性能对比。

在**组模型中,研究者以独立患者为单位进行验证,将数据按样本分组后分别打乱并生成二维图像。若同一样本生成的二维图像中有超过 80% 被正确分类,则该样本判定为预测正确。模型对三类组织(NNP、NAA、AN)的分类结果表现优异,整体准确率达 95.8%,平均 AUC 为 0.97。其中,针对肿瘤性病变(包括 NAA 和 AN)的预测灵敏度为 99.0%,特异性为 96.0%,显示出该模型在识别肿瘤性与非肿瘤*息肉方面具有极高的诊断潜力。

研究通过评估白光内镜图像的诊断表现,比较了AI辅助前后内镜医师在区分肿瘤性与非肿瘤*息肉方面的差异。在独立诊断阶段,经验丰富的专家内镜医师对肿瘤*息肉的中位单图像诊断准确率为 91.1%,而初级医师仅为 71.4%。在测试集中,HSI-AI模型对每个肿瘤*息肉均进行了分类,仅有一例非进展性腺瘤(NAA)被误判为进展性肿瘤(AN)。在 HSIAI 模型的辅助下,初级内镜医师的总体中位准确率提升至 94.7%,已接近**医师水平。自身对照显示,初级组在 AI 辅助前后的诊断表现差异显著(p<0.01),而**组则无统计学差异(p=0.63)。就阴性预测值(NPV)而言,多名初级医师在 AI 辅助后均超过 90%,符合 PIVI“切除-丢弃”策略要求;初级组整体中位 NPV 由 50.0% 跃升至 88.2%(p=0.013)。其余诊断指标亦获得**改善,初级医师具体数据见图 3。

图3 初级内镜医师在白光内镜图像下,未借助(左)与借助(右)HSI-AI 辅助时,对肿瘤性与非肿瘤*结直肠息肉的诊断性能对比

结论

本研究证实利用高光谱成像(HSI)可在新鲜结肠组织上对结直肠息肉实现腺瘤与非腺瘤的高精度区分,并进一步识别进展期肿瘤。该工具显著提升了初级内镜医师的诊断水平,展现了 AI 辅助诊断与结肠镜实时同步的潜力。

川公网安备 51011202000202号