文献情報
文献番号
201804002A
報告書区分
総括
研究課題名
医療におけるAI関連技術の利活用に伴う倫理的・法的・社会的課題の研究
課題番号
H30-倫理-一般-001
研究年度
平成30(2018)年度
研究代表者(所属機関)
井上 悠輔(東京大学 医科学研究所)
研究分担者(所属機関)
- 菅原 典夫(国立精神・神経医療研究センター トランスレーショナルメディカルセンター)
- 井元 清哉(東京大学 医科学研究所)
- 佐藤 雄一郎(東京学芸大学 教育学部)
- 一家 綱邦(国立がん研究センター 社会と健康研究センター)
研究区分
厚生労働科学研究費補助金 行政政策研究分野 政策科学総合研究(倫理的法的社会的課題研究事業)
研究開始年度
平成30(2018)年度
研究終了予定年度
令和1(2019)年度
研究費
5,300,000円
研究者交替、所属機関変更
該当なし
研究報告書(概要版)
研究目的
AI関連技術を医療において活用する際に患者・市民、医療者が直面する可能性がある、法的・倫理的・社会的課題を抽出する(ここでの「AI」とは、医師による医行為を支援する目的で用いられるものを主に想定)。生命倫理学・医事法学、臨床医学、AIの専門家、そして研究開発活動との対話に実績のある患者団体との連携のもとに検討を行って重要性を評価し、施策提言にまとめる。
研究方法
倫理・法の原則との整合性を検討する政策研究、社会調査やヒアリングを通じた実証的な検討を行う実証研究の二つの作業班をもうけて検討を進める。その際、①AIの「可塑性」「ブラックボックス性」(PMDA科学委員会報告、2017年)が、医療および患者医師関係にもたらす影響、②AIが機能する前提となる医療インフラの整備が市民・患者と医療との関係にもたらす影響に注目する。初年度は、論点の抽出・整理作業を開始しつつ、並行して実証調査の計画・立案を行う。2年度目は、医療者および市民を対象とした実態調査を行い、初年度の論点整理を見直し、結果を最終報告にまとめる。
結果と考察
計画の初年度に当たる今年度は、主に「診断支援」の観点から、医療におけるAIの利活用に関連する倫理・法的・社会的課題を探索的に検討して整理した。
現状の議論を整理すると、中長期的には政策上の選択が迫られる可能性も否定できないが、現行の医事・薬事に関する法制度を基礎にする限り、従来の医療機器と比べて「医療AI」固有の倫理的・法的・社会的課題の影響が直ちに生じるとは考えにくい。「AIが医師の存在に代わる」「誰も理解できないAIが診断を下す」といった状況には遠く、むしろ医療の機械化・電子化、遠隔診断などの支援技術、患者情報の利活用など、従来の議論に学ぶところが大きい。
それでも、医療におけるAI関連技術の利活用には、いくつか留意すべき点がある。まず、①「AI」「人工知能」という表現についての共通の理解がないため、患者・市民のみならず、医療者の間でも混乱を招きうる。アメリカ医師会が「拡張機能」(augmented intelligence)としての理解を推奨するように、実体に合った情報発信、制度上の位置づけがなされるべきである。また、②医師は、これらの技術の特徴や限界を理解し、また管理できねばならず、AIの判定結果が一人歩きする状況を防がねばならない。「医師への教育機会の確保」「使用者の資質要件の整備」「使用する医師を支援する機能」が求められる。③市民・患者を直接対象とした「疾患予測」「リスク予測」に関するツールやプログラムが、医行為や医療機器との線引きがあいまいな形で、開発・提供される可能性にも、注意が必要である。
海外の議論はまだ蓄積の途上にあるが、医療で機械学習が実践されることを想定して、患者の自己決定に及ぼす影響や「バイアス」を懸念するものが目立つ。こうした議論を踏まえ、本報告書では、臨床現場で生じうる懸念や混乱を想定して作成した、11件の「架空事例」(案)も掲載した。今後の技術開発や応用の展開を踏まえ、どのような議論が生じるか引き続き検討が必要である。
現状の議論を整理すると、中長期的には政策上の選択が迫られる可能性も否定できないが、現行の医事・薬事に関する法制度を基礎にする限り、従来の医療機器と比べて「医療AI」固有の倫理的・法的・社会的課題の影響が直ちに生じるとは考えにくい。「AIが医師の存在に代わる」「誰も理解できないAIが診断を下す」といった状況には遠く、むしろ医療の機械化・電子化、遠隔診断などの支援技術、患者情報の利活用など、従来の議論に学ぶところが大きい。
それでも、医療におけるAI関連技術の利活用には、いくつか留意すべき点がある。まず、①「AI」「人工知能」という表現についての共通の理解がないため、患者・市民のみならず、医療者の間でも混乱を招きうる。アメリカ医師会が「拡張機能」(augmented intelligence)としての理解を推奨するように、実体に合った情報発信、制度上の位置づけがなされるべきである。また、②医師は、これらの技術の特徴や限界を理解し、また管理できねばならず、AIの判定結果が一人歩きする状況を防がねばならない。「医師への教育機会の確保」「使用者の資質要件の整備」「使用する医師を支援する機能」が求められる。③市民・患者を直接対象とした「疾患予測」「リスク予測」に関するツールやプログラムが、医行為や医療機器との線引きがあいまいな形で、開発・提供される可能性にも、注意が必要である。
海外の議論はまだ蓄積の途上にあるが、医療で機械学習が実践されることを想定して、患者の自己決定に及ぼす影響や「バイアス」を懸念するものが目立つ。こうした議論を踏まえ、本報告書では、臨床現場で生じうる懸念や混乱を想定して作成した、11件の「架空事例」(案)も掲載した。今後の技術開発や応用の展開を踏まえ、どのような議論が生じるか引き続き検討が必要である。
結論
現時点での整理としては、現行の医事・薬事法制度を基礎にする限り、医療AI自体が直ちに提起する固有の倫理的・法的・社会的課題の影響は限定的であるが、いくつか留意すべき点がある。①医師がこれらを診療で用いる際には技術の特性や限界を理解しておくこと、②AIを用いる医療者、および関連技術の研究開発や製造販売に従事する者は制度上の位置づけを慎重に検討するべきこと、③患者や市民の利用者に誤解や混乱をもたらす情報提供や説明を行ってはならない、といった点を指摘しうる。この方針に立って、医療者の支援、患者や市民の視点に立った一定の措置が求められる。なお、これらは現行段階での整理であり、今後の技術の進展には引き続き注意が必要である。
公開日・更新日
公開日
2019-10-07
更新日
-