首页 > 科技新闻

新训练方法提高AI模型准确率和透明度

时间:2026-04-09 08:50:05 来源:中国经济网

  在医疗诊断、自动驾驶等高风险场景中,人工智能(AI)模型决策的可解释性至关重要。据美国麻省理工学院官网近日消息称,为了提高透明度,该校团队开发出一种新方法,能够从已训练好的计算机视觉模型中自动提取关键概念,并迫使模型使用这些人类易于理解的概念进行解释和预测。这项进展有望在提升模型准确性的同时,增强用户对“黑盒”AI的信任。

  概念瓶颈模型是增强AI可解释性的常见技术。它是指在模型决策过程中增加一个中间步骤:先识别图像中与任务相关的、可被人理解的“概念”,再基于这些概念做出最终预测。例如,在肿瘤诊断中,模型可能先识别“成簇的棕色斑点”这一概念,再判断是否为黑色素瘤。

  然而,传统方法依赖人类专家或大语言模型预先定义概念集,这些概念可能与具体任务关联性不强,或缺乏足够细节,从而影响模型性能。另外,模型在训练时也可能“暗中”使用了定义之外的其他特征,导致解释与真实不符。

  此次,团队利用一个经过海量数据预训练的视觉模型,认为其内部已蕴含了完成任务所需的知识。他们设计了一种两阶段流程来提取和转化这些知识。首先,使用一个称为稀疏自编码器的专用模型,提取出最相关的特征,并将其压缩为少量核心概念。接着,由一个多模态大语言模型将这些特征转化为简洁的自然语言描述,并自动为数据集中图像标注这些概念真实与否。最后,利用这些标注数据训练一个概念瓶颈模块,并将其整合到原始模型中,强制模型仅使用这套提取的概念进行预测。

  团队在过程中限制了模型每次预测最多只能使用五个概念,迫使模型筛选出最关键的几个特征,使生成的解释既精炼又直接相关。

  测试中,鸟类物种识别和皮肤病变诊断等任务结果均表明,新方法在提供更精确、与图像更贴合的概念解释的同时,也取得了比现有概念瓶颈模型更高的预测准确率。这意味着,该方法不仅能更好地“解读”模型的思考过程,还能维持更优的性能。

  团队未来的工作还将致力于解决信息泄露等问题,并探索利用更强大的多模态大模型来标注更大规模的数据,以进一步提升方法的效能。

华夏发展网免责声明:

凡本网注明 “来源:XXX(非华夏发展网)” 的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

如因作品内容、版权和其它问题需要同本网联系的,请在30日内与以下联系方式进行沟通: QQ:2732028340 如未与华夏发展网本部进行有效沟通的事宜,本网将视同为未曾提前联系,并不能给予答复、解决。

关于我们 | 广告服务 | 商务合作 | 招聘信息 | 联系我们 | 免责声明

华夏发展网 www.theonej5.com 版权所有 (c) All Rights Reserved.

冀ICP备2022007115号-1

华夏发展网内容均采集自网络,如有问题请将投诉发送到邮箱axlt6@qq.com我们会及时处理!