唧唧堂管理学写作小组:白骨鱼石审校
唧唧堂管理学写作小组:第一生编辑
巴斯少年
本文是针对论文《参与或不参与人工智能进行批判性判断:专家在使用人工智能进行医学诊断时如何处理不透明性(ToEngageorNottoEngagewithAIforCriticalJudgments:HowProfessionalsDealwithOpacityWhenUsingAIforMedicalDiagnosis)》的一篇论文解析。该论文于年1月发表于《组织科学(OrganizationScience)》杂志上,作者包括SarahLebovitz,HilaLifshitz-Assaf,NataliaLevina。
研究简介
人工智能(ArtificialIntelligence,AI)技术有望在解决问题、感知和推理方面不断改进,成为一种基本的组织变革推动力,特别是在知识工作(KnowledgeWork)领域。对于AI代替人工输入还是让人类专家“增强”AI,私人和公共组织越来越多地选择后者,并假设可以通过协同整合人工智能和专家各自提供的专业知识产生价值。这篇论文通过调查专业人员如何使用AI工具形成三种不同的医学诊断判断,研究如何在实践中展开用于关键决策的人类AI增强。
组织领域的合作整合包含了转移知识,这个过程既需要理解他人输入背后的含义,又需要愿意改变自己的初始立场。而在知识工作中,由于专家不总是能够解释自己的推理,且其合作者可能不愿意听取不熟悉的观点,因此实现协作很困难。在无法获得其背后推理的情况下,专家对跨专业知识基础的理解和对替代观点持开放态度方面都可能存在问题。因此,当人类面临由人工智能工具表达的不同观点时,可能会出现所谓的“不透明人工智能(OpacityAI)”问题,尤其是深度学习算法这样的“黑箱”。
这篇论文通过对美国一家利用人工智能辅助放医院进行民族志实地研究(EthnographicFieldStudy),探索使用AI工具的专家如何处理不透明性,是否根据AI输入改变他们的初始知识主张。在对肺癌、乳腺癌和骨龄的诊断中,只有肺癌诊断中专家使用AI会增强他们本身的专业性,这种案例被称为参与增强(EngagedAugmentation)。这一案例中专家能够将AI结果与初步判断联系起来,并制定“AI问责实践(AIInterrogationPractices)”来协调不同的知识主张(KnowledgeClaims),这需要专业人员进行大量资源投资。
背景理论
使用AI增强专业知识
AI使用有自动化和增强化两类场景,这篇论文