识别图像中的模式的人工智能模型通常比人眼做得更好,但并非总是如此。如果放射科医生使用人工智能模型来帮助她确定患者的 X 光检查是否显示肺炎迹象,她什么时候应该相信模型的建议,什么时候应该忽略它?
麻省理工学院和 MIT-IBM Watson AI 实验室的研究人员表示,定制的入职流程可以帮助这位放射科医生回答这个问题。他们设计了一个系统,教用户何时与人工智能助手协作。
在这种情况下,训练方法可能会发现放射科医生相信模型建议的情况,但她不应该相信,因为模型是错误的。系统自动学习她应该如何与人工智能协作的规则,并用自然语言描述它们。
在入职期间,放射科医生使用基于这些规则的训练练习来练习与人工智能合作,并接收有关她的表现和人工智能表现的反馈。
研究人员发现,当人类和 AI 合作执行图像预测任务时,这种入门程序可将准确性提高约 5%。他们的结果还表明,仅告诉用户何时信任人工智能而不进行培训会导致性能下降。
重要的是,研究人员的系统是完全自动化的,因此它学会根据人类和人工智能执行特定任务的数据来创建入职流程。它还可以适应不同的任务,因此可以在人类和人工智能模型协同工作的许多情况下扩展和使用,例如社交媒体内容审核、写作和编程。
“通常情况下,人们在没有任何培训的情况下就可以使用这些人工智能工具,以帮助他们弄清楚何时会有所帮助。这并不是我们对人们使用的几乎所有其他工具所做的事情 - 几乎总是有某种教程“但对于人工智能来说,这一点似乎缺失了。我们正试图从方法论和行为的角度来解决这个问题。”数据研究所社会与工程系统博士项目的研究生 Hussein Mozannar 说道。 、系统与社会 (IDSS) 以及有关此培训过程的论文的主要作者。
研究人员预计,这种入职培训将成为医疗专业人员培训的重要组成部分。