医疗电子
(文章来源:携手健康网)
根据美国医学协会年会的几份 新闻稿,美国医学协会(AMA)已采取旨在塑造人工智能系统及其集成到医疗保健系统的政策。
AMA的建议旨在确保执业医师参与AI应用程序的开发,并接受有效使用它们所需的培训。这些政策旨在使自主AI应用程序的开发人员(而不是医生)对涉及该技术的医疗错误承担责任。超过三分之二的医疗保健高管预测, 人工智能将在未来三年内对其组织产生重大影响,因此,医生和技术之间的关系似乎将在近期到中期发生变化。
为了准备和影响这些变化,AMA在其年度会议上通过了一系列政策和建议。一些政策集中在医师培训上。另一套政策建议更广泛地涉及医疗保健AI系统的开发,采用和监督。
两组策略的特征点都与AI系统的开发人员有关。在采纳了政策建议之后,AMA将提倡在使用该技术出现问题时对AI开发人员而非医生负责。AMA认为这是公平的,因为AI开发人员“最有能力管理直接由系统故障或错误诊断引起的责任问题”。
尽管AMA明确应由谁负责,但其他主管部门仍在辩论这个话题。在今年早些时候的一次会议上,一位欧洲政客问道:“如果机器人在手术中犯错或者自动驾驶汽车撞车,谁来负责?”他补充说,这些问题对监管机构提出了新的挑战。
AMA希望看到制定的政策能够降低导致市场危害的AI应用程序的风险。医学协会正在倡导“基于伤害和利益的风险”的法规以及涉及安全性,功效,隐私和安全性的报销决策。AMA认为,付款人覆盖范围应有助于医生过渡到新系统,并为他们提供反馈的机会,并补充说,在情况“不断变化”的情况下,没有人应因不使用AI而受到惩罚。
培训政策旨在确保想要使用AI的医生具备这样做的能力。AMA的具体政策包括推动提供教育材料,以“防止无意间传播AI系统固有的偏见”。
(责任编辑:fqj)
全部0条评论
快来发表一下你的评论吧 !