摘要

早期乳腺癌检测是降低患者死亡率、改善预后的关键,但传统影像诊断(如钼靶、超声)受限于二维成像的信息缺失,易出现误诊或漏诊。近年来,3D 医学影像技术(如动态对比增强磁共振成像,DCE-MRI;数字乳腺断层合成,DBT)凭借对乳腺结构的完整三维表征能力,成为早期乳腺癌检测的核心工具,而 3D 影像分析技术则为精准诊断提供了关键支撑。本文系统综述了 3D 医学影像在早期乳腺癌检测中的应用,重点梳理了相关技术框架、数据集与现存挑战。首先,概述乳腺癌的临床背景与 3D 影像技术的优势,明确 3D 影像分析在病灶定位、良恶性鉴别中的核心价值;其次,按 “数据预处理 – 特征提取 – 模型构建 – 性能评估” 的技术流程,分类阐述主流方法(传统机器学习、深度学习)的原理与应用场景,尤其聚焦 Transformer、扩散模型等新兴深度学习架构在 3D 影像中的适配与优化;再次,整理当前公开的 3D 乳腺影像数据集(含模态、样本量、标注信息等关键属性),分析数据稀缺性、标注成本高对技术落地的制约;最后,总结 3D 影像分析面临的核心挑战(如小病灶检测精度、跨模态数据融合、临床可解释性),并展望未来发展方向(如多模态大模型、联邦学习、低剂量成像与分析结合)。本文旨在为医学影像研究者、临床医生提供 3D 乳腺影像分析的全景视图,推动技术与临床的深度融合,助力早期乳腺癌检测的精准化与标准化。

1 引言(Introduction)

乳腺癌是全球女性发病率最高的恶性肿瘤,据世界卫生组织(WHO)统计,2023 年全球新增乳腺癌病例超 230 万,死亡病例近 70 万 [1]。临床实践表明,若在肿瘤直径<2cm、无淋巴结转移的早期阶段确诊,患者 5 年生存率可提升至 95% 以上;而晚期确诊患者的 5 年生存率仅约 27%[2]。因此,早期检测是改善乳腺癌患者生存质量的核心突破口。

传统早期乳腺癌检测依赖二维(2D)影像技术,如乳腺钼靶(X 线成像)、超声成像:

  • 乳腺钼靶是筛查首选,但其对致密型乳腺(亚洲女性占比超 60%)的病灶分辨率低,易因组织重叠掩盖微小肿瘤 [3];
  • 超声虽无辐射且对致密乳腺适配性更好,但受操作者经验影响大,对<5mm 的微小病灶漏诊率可达 30%[4]。

3D 医学影像技术的出现解决了 2D 成像的 “信息丢失” 问题:

  • 数字乳腺断层合成(DBT):通过多角度 X 线扫描重建乳腺三维结构,可减少组织重叠干扰,微小病灶检出率较钼靶提升 20%-30%[5];
  • 动态对比增强磁共振成像(DCE-MRI):利用对比剂动态追踪乳腺血流变化,不仅能清晰显示病灶形态,还可通过 “血流动力学参数”(如强化峰值、达峰时间)区分良恶性肿瘤,对早期原位癌(如导管原位癌)的检出率优势显著 [6];
  • 乳腺超声断层成像(BTUS):结合超声的无辐射优势与 3D 结构表征能力,适用于钼靶禁忌人群(如孕妇、哺乳期女性),但目前临床应用较少 [7]。

随着计算机视觉与深度学习技术的发展,3D 乳腺影像分析已从 “人工辅助阅片” 向 “智能诊断决策” 演进:从早期基于纹理、形状的传统特征提取,到如今基于 3D 卷积神经网络(3D CNN)、Transformer 的端到端病灶检测与分类,技术精度持续逼近临床专家水平 [8]。然而,3D 影像分析仍面临诸多挑战:3D 数据量庞大导致的 “计算成本高”、公开数据集稀缺导致的 “模型泛化性差”、病灶与正常组织边界模糊导致的 “小病灶漏诊”,以及模型决策过程不透明导致的 “临床信任度低” 等 [9]。

本文的结构安排如下:第 2 章梳理 3D 乳腺影像分析的技术框架,按流程拆解关键步骤与主流方法;第 3 章汇总当前公开的 3D 乳腺影像数据集,分析数据特性与应用场景;第 4 章总结技术落地的核心挑战;第 5 章展望未来发展方向;第 6 章为结论。

2 3D 乳腺影像分析技术框架(Technical Framework of 3D Breast Image Analysis)

3D 乳腺影像分析的核心目标是 “从 3D 影像中精准定位病灶,并判断其良恶性”,技术流程可分为数据预处理病灶检测与分割病灶分类与良恶性鉴别性能评估四个关键环节(图 1)。本节将按流程阐述各环节的核心任务、技术难点与主流方法。

2.1 数据预处理(Data Preprocessing)

3D 乳腺影像原始数据存在 “噪声干扰、模态差异、个体差异” 等问题,预处理的目标是 “提升数据质量,降低后续分析难度”,核心任务包括:图像去噪、模态标准化、图像配准、感兴趣区域(ROI)提取。

2.1.1 图像去噪(Image Denoising)

3D 影像噪声来源因模态而异:

  • DBT 与钼靶类似,存在 X 线量子噪声,传统方法(如高斯滤波、中值滤波)易模糊病灶细节;
  • DCE-MRI 受运动伪影(如呼吸、心跳)与设备噪声影响,动态序列中易出现 “帧间不一致”;
  • BTUS 受超声探头噪声与组织散射影响,图像信噪比(SNR)较低。

近年来,基于深度学习的去噪方法成为主流:

  • 3D 卷积自编码器(3D CAE):通过编码器压缩 3D 影像特征,解码器重构去噪后图像,在 DCE-MRI 运动伪影去除中,峰值信噪比(PSNR)较传统方法提升 1.5-2.3dB [10];
  • 扩散模型(Diffusion Models):利用 “逐步去噪” 机制学习影像的真实分布,在 DBT 低剂量成像去噪中,可在降低辐射剂量 30% 的同时,保持病灶细节清晰度 [11];
  • 注意力机制辅助去噪:如 3D U-Net 结合注意力模块,可聚焦噪声区域,避免对病灶特征的过度平滑 [12]。

2.1.2 模态标准化(Modality Normalization)

不同设备、不同扫描参数会导致同一模态影像的 “灰度分布差异”(如不同医院的 DCE-MRI 对比剂注射速率不同,强化信号强度差异显著),需通过标准化消除系统误差。主流方法包括:

  • 灰度归一化:将影像灰度值映射到固定范围(如 [0,1] 或 [-1,1]),常用方法有最小 – 最大归一化(Min-Max)、Z-score 标准化;
  • 直方图匹配:将待处理影像的灰度直方图调整为 “标准模板”(如某权威医院的影像直方图),减少设备差异影响 [13];
  • 领域自适应(Domain Adaptation):针对跨设备数据,通过迁移学习将源域(如 A 医院数据)的特征分布迁移到目标域(如 B 医院数据),典型方法有领域对抗神经网络(DANN)[14]。

2.1.3 图像配准(Image Registration)

在多模态融合分析(如 DCE-MRI 与 DBT 结合)或动态序列分析(如 DCE-MRI 的多时间点扫描)中,需通过配准实现 “空间对齐”:

  • 刚性配准:适用于同一患者的不同模态静态影像(如 DBT 与超声),通过平移、旋转实现空间对齐,常用算法有迭代最近点(ICP)、归一化互相关(NCC)[15];
  • 非刚性配准:适用于动态序列(如 DCE-MRI 的多帧影像)或不同患者的影像对比,需考虑组织形变(如呼吸导致的乳腺位置变化),主流方法有基于 B 样条的自由形变模型(FFD)、基于深度学习的端到端配准(如 VoxelMorph)[16]。

2.1.4 感兴趣区域(ROI)提取(ROI Extraction)

3D 乳腺影像包含大量冗余信息(如脂肪组织、胸壁),ROI 提取可 “聚焦乳腺实质区域”,减少后续计算量。核心方法包括:

  • 阈值分割:利用乳腺实质与脂肪组织的灰度差异(如 DBT 中乳腺实质灰度高于脂肪),通过 Otsu 自适应阈值分离实质区域 [17];
  • 形态学操作:结合膨胀、腐蚀等操作去除小面积噪声区域,保留完整乳腺实质 [18];
  • 深度学习分割:如 3D U-Net 及其变体(如 3D ResU-Net),可直接从 3D 影像中端到端分割乳腺实质,在 DCE-MRI 中 Dice 相似系数(DSC)可达 0.92 以上 [19]。

2.2 病灶检测与分割(Lesion Detection and Segmentation)

病灶检测与分割是 3D 影像分析的核心环节:“检测” 旨在定位病灶的大致区域,“分割” 则需精确勾勒病灶边界,为后续良恶性鉴别提供细节特征。

2.2.1 病灶检测(Lesion Detection)

3D 乳腺病灶检测面临两大难点:一是病灶体积小(早期肿瘤直径常<1cm,在 3D 影像中仅占数十至数百个体素);二是病灶与正常组织灰度差异小(如导管原位癌与正常导管组织边界模糊)。主流方法可分为传统机器学习与深度学习两类。

  • 传统机器学习方法:依赖手工设计特征,流程为 “候选区域生成 – 特征提取 – 分类器筛选”:
    1. 候选区域生成:通过滑动窗口(Sliding Window)遍历 3D 影像,或利用灰度阈值、形态学操作生成疑似病灶区域;
    2. 特征提取:提取病灶的纹理特征(如灰度共生矩阵,GLCM)、形状特征(如体积、球形度)、密度特征(如 CT 值 / 信号强度均值)[20];
    3. 分类器筛选:使用支持向量机(SVM)、随机森林(RF)等分类器区分 “真病灶” 与 “假阳性区域”[21]。传统方法的局限性在于:手工特征对模糊病灶适配性差,且滑动窗口遍历 3D 影像的计算成本极高(如 3D 影像尺寸为 512×512×128 时,滑动窗口数量可达百万级)。
  • 深度学习方法:基于 3D 卷积网络实现 “端到端检测”,大幅提升效率与精度:
    1. 3D 单阶段检测模型:如 3D YOLO、3D RetinaNet,直接从 3D 影像中预测病灶的位置与类别,优势是速度快,适用于实时检测场景。例如,3D YOLOv5 在 DBT 数据集上的病灶检测平均精度(mAP)达 0.78,推理时间较传统方法缩短 80%[22];
    2. 3D 两阶段检测模型:如 3D Faster R-CNN,先通过区域提议网络(RPN)生成少量候选区域,再进行精细分类与边界框回归,优势是精度高,适用于小病灶检测。例如,基于 3D Faster R-CNN 的 DCE-MRI 病灶检测模型,对直径<5mm 病灶的检出率达 0.72,较单阶段模型提升 15%[23];
    3. Transformer-based 检测模型:如 3D DETR,通过自注意力机制捕捉 3D 影像的全局特征,解决 “病灶与正常组织边界模糊” 问题。在 DCE-MRI 动态序列中,3D DETR 可结合多时间点特征,病灶检测假阳性率较 3D Faster R-CNN 降低 20%[24]。

2.2.2 病灶分割(Lesion Segmentation)

病灶分割需精确提取病灶的三维轮廓,为后续特征分析(如体积变化、强化模式)提供基础。主流方法以深度学习为主,核心是 “利用 3D 网络捕捉病灶的空间结构信息”。

  • 3D U-Net 及其变体:3D U-Net 是医学影像分割的经典架构,通过 “编码器 – 解码器” 结构实现多尺度特征融合:编码器下采样捕捉全局上下文信息,解码器上采样恢复空间分辨率,跳跃连接(Skip Connection)保留细节特征 [25]。为提升分割精度,研究者提出多种改进:
    • 3D ResU-Net:引入残差连接解决深层网络梯度消失问题,在 DCE-MRI 病灶分割中 DSC 达 0.89 [26];
    • 3D Attention U-Net:在解码器中加入注意力模块,聚焦病灶区域,减少正常组织干扰,在 DBT 小病灶分割中 DSC 提升至 0.85 [27];
    • 3D TransU-Net:将 Transformer 融入 3D U-Net,利用自注意力机制捕捉病灶的长距离依赖关系,适用于形态不规则的病灶(如浸润性导管癌)[28]。
  • 基于扩散模型的分割:扩散模型通过 “逐步生成病灶掩码” 实现分割,优势是对噪声鲁棒性强。例如,3D DiffusionSeg 在 DCE-MRI 病灶分割中,面对运动伪影时 DSC 仍能保持 0.83,较 3D U-Net 提升 8%[29]。
  • 弱监督分割:针对 “3D 影像全标注成本高” 的问题,弱监督分割仅需 “病灶中心点” 或 “粗略边界框” 标注即可训练模型。例如,基于 3D 种子点(Seed Point)的弱监督分割模型,在仅标注病灶中心点的情况下,DCE-MRI 病灶分割 DSC 达 0.81,接近全监督模型性能 [30]。

2.3 病灶分类与良恶性鉴别(Lesion Classification and Benign-Malignant Discrimination)

病灶分类的核心是 “基于分割后的病灶特征,判断其良恶性”,部分模型还可进一步细分肿瘤亚型(如导管原位癌、浸润性小叶癌)。特征来源可分为 “影像特征” 与 “临床特征”,模型架构则以深度学习为主。

2.3.1 特征类型

  • 影像特征
    1. 形态学特征:如病灶体积、表面粗糙度、边缘规则性(恶性肿瘤多呈毛刺状边缘);
    2. 纹理特征:如 3D 灰度共生矩阵(3D GLCM)、3D 局部二值模式(3D LBP),反映病灶内部灰度分布的均匀性(恶性肿瘤纹理多不均匀);
    3. 功能特征:仅适用于动态影像(如 DCE-MRI),包括血流动力学参数(强化峰值、达峰时间、洗出率)—— 恶性肿瘤因血管丰富,通常表现为 “快速强化、快速洗出”,而良性病灶多为 “缓慢强化、持续强化”[31]。
  • 临床特征:如患者年龄(乳腺癌高发于 45-65 岁)、家族病史、乳腺密度(致密乳腺患者恶性风险更高),将临床特征与影像特征融合可提升分类精度 [32]。

2.3.2 分类模型

  • 3D 卷积分类模型:直接从 3D 病灶区域提取特征并分类,典型架构包括 3D CNN、3D ResNet、3D DenseNet。例如,3D ResNet-50 在 DCE-MRI 病灶良恶性分类中,准确率达 0.91,灵敏度(恶性检出率)达 0.93 [33];3D DenseNet 通过密集连接捕捉细粒度特征,在 DBT 亚型分类中(区分导管原位癌与浸润性癌)准确率达 0.88 [34]。
  • 多模态融合分类模型:融合不同模态的互补信息(如 DBT 的结构特征与 DCE-MRI 的功能特征),提升分类鲁棒性。主流融合方式包括:
    • 早期融合:在输入层拼接多模态 3D 影像,再通过 3D CNN 提取特征;
    • 晚期融合:分别提取各模态特征,再通过全连接层融合后分类;
    • 注意力融合:利用注意力机制动态分配各模态的权重,如在 “DBT+DCE-MRI” 融合模型中,注意力模块可在病灶边界模糊时,增加 DCE-MRI 功能特征的权重,分类准确率较单模态提升 7%-10%[35]。
  • Transformer-based 分类模型:利用自注意力机制捕捉病灶的全局特征,适用于 “特征分布不均” 的场景。例如,3D ViT(Vision Transformer)在 DCE-MRI 病灶分类中,通过将 3D 病灶划分为 “体素块(Voxel Patch)”,捕捉块间依赖关系,准确率达 0.92,较 3D ResNet 提升 3%[36];3D Swin Transformer 通过 “窗口注意力” 降低计算成本,在 DBT 分类中推理速度较 3D ViT 提升 2 倍 [37]。

2.4 性能评估(Performance Evaluation)

3D 乳腺影像分析的性能评估需结合 “医学诊断场景”,核心指标分为 “检测 / 分割指标” 与 “分类指标”,同时需考虑临床实用性(如灵敏度、特异度)。

2.4.1 检测 / 分割指标

  • 病灶检测指标
    • 平均精度(mAP):衡量模型在不同置信度阈值下的检测精度,是目标检测的核心指标;
    • 灵敏度(Sensitivity):真阳性(TP)占所有实际阳性(TP+FN)的比例,反映模型对病灶的检出能力(临床中需优先保证高灵敏度,避免漏诊);
    • 假阳性率(FPR):假阳性(FP)占所有实际阴性(FP+TN)的比例,反映模型的误诊风险。
  • 病灶分割指标
    • Dice 相似系数(DSC):衡量分割结果与金标准(手动标注)的重叠程度,计算公式为\(DSC=2\times\frac{TP}{2\times TP+FP+FN}\),取值范围 [0,1],越接近 1 表示分割精度越高;
    • 交并比(IoU):分割结果与金标准的交集占并集的比例,计算公式为\(IoU=\frac{TP}{TP+FP+FN}\);
    • 豪斯多夫距离(HD):衡量分割结果与金标准的最大距离,反映边界误差,单位为体素。

2.4.2 分类指标

  • 准确率(Accuracy):正确分类样本占总样本的比例,计算公式为\(Accuracy=\frac{TP+TN}{TP+TN+FP+FN}\);
  • 灵敏度(Sensitivity):恶性肿瘤的正确检出率,计算公式为\(Sensitivity=\frac{TP}{TP+FN}\);
  • 特异度(Specificity):良性病灶的正确判断率,计算公式为\(Specificity=\frac{TN}{TN+FP}\);
  • ROC 曲线与 AUC 值:ROC 曲线以假阳性率(FPR)为横轴、灵敏度(TPR)为纵轴,AUC 值为 ROC 曲线下面积,取值范围 [0.5,1],越接近 1 表示分类性能越好。

2.4.3 临床实用性评估

除量化指标外,还需评估模型的临床适配性:

  • 推理时间:3D 影像数据量大,需保证模型在临床设备上的实时性(如单例 DCE-MRI 分析时间<5 分钟);
  • 鲁棒性:测试模型在不同设备、不同患者群体(如不同年龄、乳腺密度)上的性能稳定性;
  • 可解释性:通过可视化工具(如 Grad-CAM、注意力热力图)展示模型的决策依据,提升临床医生信任度 [38]。

3 3D 乳腺影像数据集(3D Breast Image Datasets)

3D 乳腺影像分析的发展高度依赖高质量数据集,但由于 “医学数据隐私保护”“标注成本高”(3D 影像标注需放射科医生逐帧确认,单例标注时间可达数小时)等原因,公开数据集数量有限。本节汇总当前主流的 3D 乳腺影像数据集,按模态分类(DBT、DCE-MRI、多模态)整理关键信息(表 1 – 表 3),并分析数据集的优势与局限性。

3.1 数字乳腺断层合成(DBT)数据集

DBT 是目前临床筛查的主流 3D 模态,公开数据集以欧美人群为主,样本量较大,但亚洲人群数据稀缺。

数据集名称发布机构 / 年份模态样本量(患者数)标注信息适用场景访问方式
CBIS-DDSM美国国立癌症研究所(NCI)/2017DBT + 钼靶1,566病灶边界框、良恶性标签、亚型(如钙化灶、肿块)病灶检测、良恶性分类公开(需申请)[39]
INBreast-DBT葡萄牙波尔图大学 / 2020DBT450病灶掩码(分割标注)、良恶性标签、乳腺密度分级病灶分割、密度分析公开(需申请)[40]
DBT-FOR-AI美国杜克大学 / 2022DBT2,000病灶中心点、良恶性标签、临床信息(年龄、家族史)弱监督检测、多特征融合分类公开(需申请)[41]
ASIAN-DBT中国医学科学院肿瘤医院 / 2024DBT800病灶掩码、良恶性标签、乳腺密度分级(亚洲人群)亚洲人群病灶检测与分割半公开(合作申请)[42]

优势:CBIS-DDSM、DBT-FOR-AI 样本量大,标注信息丰富,适用于模型训练与 benchmark 对比;ASIAN-DBT 填补了亚洲人群 DBT 数据的空白,有利于提升模型在亚洲临床场景的泛化性。

局限性:多数数据集仅包含 “肿块” 病灶标注,“钙化灶”(早期乳腺癌的重要标志物)标注较少;INBreast-DBT 样本量较小,不适用于大规模模型训练。

3.2 动态对比增强磁共振成像(DCE-MRI)数据集

DCE-MRI 具有 “功能 + 结构” 双重信息,公开数据集样本量较小,但标注精度高(多含分割掩码与血流动力学参数)。

数据集名称发布机构 / 年份模态样本量(患者数)标注信息适用场景访问方式
BreastMRI-NCI美国国立癌症研究所(NCI)/2018DCE-MRI450病灶掩码、良恶性标签、血流动力学参数(如 Ktrans)病灶分割、功能特征分类公开(需申请)[43]
MIRACLE欧盟联合研究中心 / 2020DCE-MRI + 超声300病灶掩码、良恶性标签、多模态配准标注多模态融合分析公开(需申请)[44]
China-Breast-MRI中国人民解放军总医院 / 2023DCE-MRI600病灶掩码、良恶性标签、亚型(如导管原位癌)早期病灶检测、亚型分类半公开(合作申请)[45]
ADMIRE德国慕尼黑大学 / 2024DCE-MRI500病灶掩码、动态序列帧间配准标注、病理报告动态特征分析、模型鲁棒性测试公开(需申请)[46]

优势:BreastMRI-NCI、ADMIRE 含血流动力学参数标注,适用于功能特征与影像特征融合的分类模型;MIRACLE 提供多模态配准标注,支持跨模态融合研究。

局限性:样本量普遍较小(<1000 例),难以支撑大模型训练;China-Breast-MRI 仅半公开,获取难度较高。

3.3 多模态数据集(含 3D 模态)

多模态数据集结合不同模态的优势(如 DBT 的结构特征、DCE-MRI 的功能特征、超声的无辐射优势),但数量极少,标注成本极高。

数据集名称发布机构 / 年份模态组合样本量(患者数)标注信息适用场景访问方式
MultiBreast-3D美国约翰霍普金斯大学 / 2022DBT+DCE-MRI + 超声200病灶掩码、良恶性标签、多模态配准标注多模态融合检测与分类公开(需申请)[47]
Asia-Multi-MRI韩国延世大学 / 2024DBT+DCE-MRI350病灶掩码、良恶性标签、乳腺密度分级(东亚人群)东亚人群多模态分析半公开(合作申请)[48]

优势:提供多模态协同分析的基础数据,可挖掘不同模态的互补价值(如 DBT 擅长检出钙化灶,DCE-MRI 擅长检出软组织病灶)。

局限性:样本量极小,且多模态配准标注存在 “人工误差”(不同模态的空间对齐难度高),难以支撑大规模模型训练。

3.4 数据集挑战与解决方案

当前 3D 乳腺影像数据集面临三大核心问题:

  1. 样本量稀缺:多数公开数据集样本量<2000 例,远低于自然图像数据集(如 ImageNet 含 1400 万样本);
  2. 人群代表性不足:欧美人群数据占比超 80%,亚洲人群数据稀缺,而亚洲女性乳腺密度更高,病灶特征与欧美人群存在差异 [49];
  3. 标注不完整:钙化灶、微小病灶(<5mm)的标注极少,且多模态配准标注、病理结果关联标注(如术后病理与术前影像对应)缺失。

解决方案包括:

  • 联邦学习(Federated Learning):多中心医院在 “数据不离开本地” 的前提下联合训练模型,解决样本量稀缺问题 [50];
  • 合成数据生成:利用扩散模型、GANs 生成符合临床特征的 3D 乳腺影像(如合成亚洲人群 DBT 数据),补充真实数据 [51];
  • 半监督 / 弱监督学习:减少对全标注数据的依赖,利用少量标注数据与大量未标注数据训练模型 [52]。

4 核心挑战(Core Challenges)

尽管 3D 乳腺影像分析技术已取得显著进展,但在 “临床落地” 过程中仍面临诸多挑战,本节从技术、数据、临床三个维度总结核心问题。

4.1 技术挑战(Technical Challenges)

4.1.1 小病灶检测精度不足

早期乳腺癌病灶(如导管原位癌、微小浸润癌)体积小(直径<5mm)、与正常组织灰度差异小,在 3D 影像中易被噪声或正常组织掩盖。现有模型对小病灶的检出率普遍低于大病灶:例如,在 DBT 数据集中,直径>10mm 病灶的检出率可达 0.90,而直径<5mm 病灶的检出率仅 0.65-0.75 [53]。核心原因包括:

  • 3D 影像下采样过程中,小病灶特征易丢失;
  • 现有模型多依赖 “局部特征”,难以捕捉小病灶与周围组织的细微关联(如导管原位癌与正常导管的纹理差异);
  • 训练数据中小病灶样本占比低,模型存在 “类别不平衡” 问题。

4.1.2 计算成本高与实时性差

3D 影像数据量远大于 2D 影像:例如,单例 DCE-MRI 的尺寸通常为 512×512×64×20(长 × 宽 × 高 × 时间帧),体素数量达 3.3×10^7,是 2D 影像(512×512)的 320 倍。这导致:

  • 模型训练成本高:3D CNN 训练需占用大量 GPU 显存(如训练 3D ResNet-50 需 16GB 以上显存),训练周期长(单轮训练需数天至数周);
  • 临床推理速度慢:单例 3D 影像分析时间常>10 分钟,无法满足临床 “实时阅片” 需求(临床医生单例影像阅片时间通常<5 分钟)[54]。

4.1.3 跨模态与跨中心数据适配性差

  • 跨模态适配性:不同 3D 模态(DBT、DCE-MRI)的影像特征差异大(如 DBT 为 X 线密度特征,DCE-MRI 为信号强度与动态特征),现有多模态融合模型难以有效对齐不同模态的特征分布,导致融合性能提升有限;
  • 跨中心适配性:不同医院的设备型号、扫描参数(如 DBT 的层厚、DCE-MRI 的对比剂剂量)差异大,导致模型在 “源中心”(训练数据来源医院)性能优异,但在 “目标中心”(新医院)性能大幅下降(如准确率下降 10%-20%)[55],即 “域偏移”(Domain Shift)问题。

4.2 数据挑战(Data Challenges)

4.2.1 数据隐私与合规性限制

医学影像涉及患者隐私,各国法规(如中国《个人信息保护法》、欧盟 GDPR)对数据共享的限制严格,导致跨机构数据流通困难。即使是公开数据集,也需经过 “去标识化” 处理(如删除患者姓名、ID),但仍存在隐私泄露风险,限制了数据的广泛使用 [56]。

4.2.2 标注成本高与标注误差

3D 乳腺影像标注需放射科医生具备丰富经验:例如,DCE-MRI 病灶分割需医生逐时间帧确认病灶边界,单例标注时间可达 2-3 小时,成本远高于 2D 影像(单例标注<30 分钟)。此外,不同医生对 “模糊病灶” 的判断存在差异(如良恶性边界不清的病灶),导致标注存在 “人工误差”,影响模型训练精度 [57]。

4.2.3 数据分布不平衡

  • 类别不平衡:乳腺癌发病率约为 1/8(欧美人群),导致数据集中 “良性病灶” 样本量远大于 “恶性病灶” 样本量(比例常达 5:1-10:1),模型易偏向预测 “良性”,导致恶性病灶漏诊;
  • 病灶类型不平衡:数据集中 “肿块” 病灶样本占比超 80%,“钙化灶”“结构扭曲”(早期乳腺癌的重要征象)样本极少,导致模型对这些少见病灶的检出能力差 [58]。

4.3 临床挑战(Clinical Challenges)

4.3.1 模型可解释性差

现有深度学习模型多为 “黑箱”,决策过程不透明:例如,模型判断某病灶为恶性,但无法明确 “是基于病灶的毛刺边缘,还是基于 DCE-MRI 的快速强化特征”。临床医生需要 “可解释的决策依据” 以信任模型结果,而 “黑箱” 特性导致模型难以融入临床 workflow [59]。

4.3.2 临床验证不足

多数模型仅在公开数据集上进行 “离线验证”,未经过大规模、多中心的 “临床验证”(如在 10 家以上医院的真实临床场景中测试)。部分模型在公开数据集上性能优异(如准确率>0.90),但在真实临床场景中,由于 “数据分布差异”“设备噪声”“患者个体差异” 等因素,性能大幅下降(如准确率降至 0.75 以下)[60]。

4.3.3 与临床 workflow 脱节

现有模型多聚焦于 “单一任务”(如仅做病灶检测,或仅做良恶性分类),而临床医生的阅片流程是 “多任务协同”(如先定位病灶,再观察形态与动态特征,结合临床病史判断良恶性,最后给出建议(如活检或随访))。模型未与临床 workflow 结合,导致 “技术无法落地”[61]。

5 未来发展方向(Future Directions)

针对上述挑战,结合医学影像技术与人工智能的发展趋势,本节提出 3D 乳腺影像分析的五大未来方向。

5.1 多模态大模型(Multimodal Large Models)

利用 “大模型” 的泛化能力与 “多模态” 的互补优势,构建 “3D 乳腺影像 + 临床数据 + 病理数据” 的多模态大模型:

  • 数据层面:融合 DBT 的结构特征、DCE-MRI 的功能特征、超声的无辐射优势,以及临床数据(年龄、家族史)、病理数据(术后病理结果),构建 “多源信息协同” 的诊断模型;
  • 模型层面:借鉴 ChatGPT、Med-PaLM 等通用大模型的思路,通过 “预训练 – 微调” 模式:在大规模未标注 3D 乳腺影像上进行预训练,学习通用影像特征;再在小规模标注数据上微调,适配具体任务(如病灶检测、分类)。多模态大模型可提升 “跨中心、跨模态” 的泛化性,例如,在预训练阶段融入多中心数据,可缓解 “域偏移” 问题 [62]。

5.2 高效 3D 模型与硬件加速(Efficient 3D Models and Hardware Acceleration)

为解决 “计算成本高、实时性差” 问题,需从 “模型压缩” 与 “硬件加速” 两方面突破:

  • 模型压缩:通过轻量化架构(如 3D MobileNet、3D ShuffleNet)、剪枝(Pruning)、量化(Quantization)减少模型参数与计算量。例如,3D MobileNet 通过深度可分离卷积,计算量较 3D ResNet 减少 80%,推理时间缩短至 3 分钟以内 [63];
  • 硬件加速:利用专用芯片(如 FPGA、ASIC)或 GPU 并行计算优化 3D 影像处理流程。例如,基于 FPGA 的 3D CNN 加速架构,可将 DCE-MRI 病灶检测推理时间缩短至 1.5 分钟 [64]。

5.3 小样本与弱监督学习(Few-Shot and Weakly Supervised Learning)

针对 “数据稀缺、标注成本高” 问题,小样本与弱监督学习是关键方向:

  • 小样本学习:利用 “元学习”(Meta-Learning)或 “迁移学习”,在少量标注数据(如每类病灶仅 10-20 例)上训练模型。例如,基于元学习的 3D 病灶检测模型,在仅 50 例标注数据的情况下,mAP 达 0.72,接近传统模型在 1000 例数据上的性能 [65];
  • 弱监督学习:利用 “弱标注” 数据(如病灶中心点、边界框、文本报告)训练模型,减少对全标注数据的依赖。例如,基于 “影像报告匹配” 的弱监督模型,通过 DCE-MRI 影像与放射科报告的文本 – 影像对齐,实现无病灶标注的良恶性分类,准确率达 0.85 [66]。

5.4 临床可解释性增强(Clinical Interpretability Enhancement)

通过 “可视化工具” 与 “因果推理” 提升模型可解释性:

  • 可视化工具:改进 Grad-CAM、注意力热力图等工具,使其适配 3D 影像,直观展示模型关注的病灶区域(如 3D Grad-CAM 可生成病灶的三维热力图,显示模型判断良恶性的关键部位)[67];
  • 因果推理:引入因果图(Causal Graph)分析 “影像特征与诊断结果的因果关系”,而非仅依赖相关性。例如,通过因果推理确定 “毛刺边缘” 是导致模型判断恶性的 “因”,而非偶然相关的 “噪声特征”,提升临床信任度 [68]。

5.5 低剂量成像与分析结合(Combination of Low-Dose Imaging and Analysis)

为减少辐射风险(如 DBT 的 X 线辐射),低剂量成像技术是临床发展趋势,需同步优化低剂量 3D 影像的分析方法:

  • 低剂量成像优化:通过设备改进(如新型探测器)或扫描参数调整(如降低管电流)减少辐射剂量;
  • 低剂量影像分析:开发鲁棒的去噪与特征提取模型,在低剂量影像中保持病灶检测精度。例如,基于扩散模型的低剂量 DBT 分析模型,可在辐射剂量降低 40% 的情况下,病灶检出率仅下降 3%[69]。

6 结论(Conclusion)

3D 医学影像技术(如 DBT、DCE-MRI)为早期乳腺癌检测提供了 “完整的三维结构与功能信息”,而 3D 影像分析技术则通过计算机视觉与深度学习,实现了从 “人工阅片” 到 “智能辅助诊断” 的跨越。本文系统梳理了 3D 乳腺影像分析的技术框架(数据预处理、病灶检测与分割、病灶分类、性能评估)、公开数据集与核心挑战,展望了多模态大模型、高效 3D 模型、可解释性增强等未来方向。

当前,3D 乳腺影像分析仍面临 “小病灶检测精度不足”“数据稀缺”“临床可解释性差” 等挑战,需通过 “技术创新”(如高效 3D 模型、因果推理)、“数据协同”(如联邦学习、合成数据)、“临床融合”(如适配临床 workflow)三方面突破。未来,随着技术与临床的深度结合,3D 乳腺影像分析有望成为早期乳腺癌检测的 “标准工具”,为实现 “精准筛查、早诊早治” 提供关键支撑,最终降低乳腺癌患者的死亡率,改善全球女性健康水平。

文章来源:

https://arxiv.org/html/2510.09492v1

网站页脚示例