2026年度の診療報酬改定において、「ICT・AI・IoT等の利活用の推進」が基本方針の一つとして打ち出されました※。今後、日本の医療現場においてはAIの活用が進んでいくと想定されます。
AI技術が著しく進歩していく一方で、AI利用にはリスクや危険性が内在していることも事実です。AIを適切に利用するためにも、行動指針や規範となる「AI倫理(AI Ethics)」を意識した利用が求められます。
本稿では、AI倫理の視点から医療がAIとどのように向き合うべきか、また倫理的なAI利用のために具体的にどのような点を意識すべきかについて詳しく解説します。
※参考:厚生労働省「 令和8年度診療報酬改定の基本方針」
医療における「AI倫理」の必要性
まずはAI倫理の概要を紹介しつつ、特に医療分野でのAI利用においてAI倫理を重視すべき理由を整理していきます。
AI倫理(AI Ethics)とは何か
AI倫理とは、AIの開発や運用において、人間の尊厳、基本的人権、そして社会の道徳的価値観を侵害しないための規範を指します。具体的には、なぜその判断にAIが至ったかという「アルゴリズムの透明性」や、人種や性別によってAIの判断に偏りが生じていないかといった「判断の公平性」、そしてAIにインプットする「データやプライバシーの保護」が主要なテーマとなります。
AIはブラックボックス化しやすい性質を持っており、意図せず差別的な出力をしたり、個人のプライバシーを侵害したりするリスクを含んでいます。そのため、世界的にAI活用における倫理指針の策定が進んでおり、一例としてはEUにおける「AI規制法」や日本における「AI事業者ガイドライン」などが挙げられます。
医療分野で特にAI倫理が重要である理由
医療分野は、他の産業と比較してもAI倫理が重要視される領域です。その理由は、AIの出力が患者の生命と健康に直結してしまうためです。
倫理面を無視してAIを利用する行為には、以下のようなリスクがあります。
診断の見落としと信頼性
AIが画像診断で病変を見落とし、医師もAIの結果を過信して精査しなかった場合、適切な治療機会が失われ、健康被害にもつながりかねません。
インフォームド・コンセントの形骸化
AIが導き出した結果に対し、医師がその根拠を説明できなければ、患者が持つインフォームド・コンセントの権利が損なわれます。
プライバシーの侵害
医療情報は、病歴や遺伝情報を含む機微な情報です。AI学習用に提供されたデータが不適切に扱われれば、情報が漏洩し個人の尊厳を傷つける結果になりかねません。
このように、AIの出力結果やAIに与える学習データを適切に扱わなければならない医療分野においては、効率や利便性を意識するだけでなく、透明性・公平性・プライバシー保護を担保した上でAIを利用しなければなりません。
医療AIが抱える倫理面での課題と論点
AI倫理の担保が求められる中、医療分野でAIを利用していくためには以下のような点が課題となります。
限定されるAIの活用範囲
現在の日本の法解釈において、厚生労働省は「AIを利用した診察を行った場合でも、最終的な判断の責任は医師が負う」との見解を示しています※。医師法第17条も踏まえ、AIはあくまで医師の判断を支援する道具であり、診断や治療等を行う主体は医師であるという位置づけです。
このため、医療現場では医師がAIの判断結果に必ず介在する「HITL(ヒューマン・イン・ザ・ループ)」が必須となります。
一方で、AIの推論プロセスが高度化し、人間には認識不可能な微細なパターンから診断を下すようになったとき、医師はどこまでその結果を検証すべきなのでしょうか。もし医師がAIの判断をすべて否定するのであれば、AIを導入する効率化や高度化といった意義は失われます。一方で、AIを鵜呑みにすれば医師としての責任を果たせなくなります。この境界線をどこに引くかが、医療分野におけるAI倫理の論点となっています。
※厚生労働省「 人工知能(AI)を用いた診断、治療等の支援を行うプログラムの利用と医師法第17条の規定との関係について」
個人のプライバシー保護
別の観点では、個人の医療データを利用する際のプライバシー保護も課題です。
AIの精度は、学習に用いるデータの量と質に依存します。より精度の高い医療AIを作るためには膨大な患者データが必要ですが、これらのデータは個人情報の塊であり、ひとたび漏洩や目的外利用が起きれば深刻な問題となります。
開発効率を優先しすぎてしまい、匿名化が不十分であったり適切な同意プロセスを軽視してしまったりすれば、倫理的な問題となります。データの収集から活用に至るまで、法的かつ技術的に厳格な対応が必要となります。
データバイアスの問題
見落としてはならないのが、学習データに起因するバイアスの問題です。AIの判断は学習に用いたデータに強く依存するため、特定の年齢層や地域、疾患傾向に偏ったデータで学習された場合、その偏りが診療結果にも反映される可能性があります。公平性を担保するためには、単にデータ量を確保するだけでなく、多様性と代表性を備えたデータ整備と倫理観をもった取り扱いが不可欠です。
医療AIの導入における「データの適正利用」と「必要な基盤」
これらの倫理的課題のうち、特にプライバシー保護については、法規制の遵守と技術的な基盤整備によって克服が可能である領域といえるでしょう。
医療データの取り扱いに関する規制
日本には、医療データの利活用を促進しつつ安全を守るための枠組みが整備されています。
2018年に制定され、2024年に改正された「
次世代医療基盤法」では、医療情報をAI研究等に活用するため、個人を特定できないよう加工した「匿名加工医療情報」や、特定の個人を識別できない「仮名加工医療情報」の作成・提供ルールが定められています。
また、「
医療デジタルデータのAI研究開発等への利活用に係るガイドライン」では、医療データを用いた製品開発における具体的な取り扱い手順が示されており、開発企業はこの遵守が求められます。
厳格なデータ管理を実現できる基盤の必要性
規制を守ることは最低条件ですが、それだけでは不十分です。近年では、医療機関を狙ったランサムウェア攻撃やサイバーテロが急増しており、データを管理するシステム基盤の堅牢性も重要となります。
医療データを扱う基盤には、以下のような高度なセキュリティ機能が不可欠です。
- 強固な認証方式:ID/パスワードだけでなく、生体認証やワンタイムパスワードを組み合わせた多要素認証。
- 厳格なアクセス制御:「誰が、どのデータに、どこまでアクセスできるか」をロールごとに細かく制御する機能。
- データの暗号化:保存時だけでなく、通信時も含めたエンドツーエンドの暗号化。
- 監査ログの管理:万が一の事態に備え、「いつ、誰が、何をしたか」を改ざん不可能な形で記録し続ける機能。
これらの機能を備えないままAI活用を進めることは、組織にとって大きなリスクとなりえます。
まとめ
医療分野におけるAI活用は避けては通れない一方で、技術の進化と並行して「AI倫理」というブレーキを正しく機能させなければなりません。透明性を確保し、医師の責任範囲を明確にし、そして何よりも患者のデータを鉄壁の守りで守り抜くことが求められます。
AI倫理を遵守しつつ、高度な医療データ活用を実現するためには、その土台となるプラットフォーム選びが重要です。インターシステムズでは、医療向けのデータ基盤として利用できる「InterSystems IRIS for Health」を提供しています。InterSystems IRIS for Healthは医療データを扱う環境に求められる厳格な要件を満たしたプラットフォームであり、高度なセキュリティ機能により患者のプライバシーを守りつつ、AI利用を推進できます。
製品開発においてもAI倫理を意識した取り組みを進めています。当社では「
インターシステムズAI 倫理原則」を定め、すべてのAI製品とプロジェクトを厳格な評価とガバナンスの対象としています。また、
AIガイドラインの定めに基づき、責任あるAIの実装利用に必要かつ適切な保護措置を実施しています。
InterSystems IRIS for Healthにご関心のある方は、お気軽に当社までお問い合わせください。
※詳細は InterSystems IRIS for Health 製品ページをご参照ください。



































