NHS医療記録AIモデル、プライバシー懸念

Foresight:国民規模の生成AIモデル

2023年に考案されたForesightは、当初、OpenAIのGPT-3(ChatGPTの最初のバージョンを支える技術)を利用し、ロンドンの2つの病院からの150万件の患者記録で訓練されました。University College LondonのChris Tomlinsonとそのチームは、その後Foresightを拡張し、世界初の「健康データの国民規模の生成AIモデル」としてブランド化しました。この強化されたバージョンは、MetaのオープンソースLLM Llama 2を活用し、2018年11月から2023年12月までの間にNHS Englandが日常的に収集した8つの異なるデータセットを組み込んでいます。これらのデータセットには、外来予約、入院、ワクチン接種記録、その他の健康関連イベントが含まれ、5,700万人の個人(本質的にイングランドの人口全体)にわたる100億のデータポイントに達します。

現在テスト中であるため、公開されているパフォーマンス指標はありませんが、Tomlinsonは、Foresightが最終的には個々の診断を容易にし、入院や心臓発作などのより広範な健康傾向を予測できると主張しています。彼は、5月6日の記者会見で、モデルが病気の合併症を事前に予測し、早期介入を可能にし、大規模な予防医療への移行を可能にする可能性を強調しました。

プライバシーとデータ保護に関する懸念

このような広範な医療データをAIモデルに投入するという見通しは、プライバシーに関する懸念を引き起こしています。研究者らは、AIを訓練する前にすべての記録が「匿名化」されたと主張していますが、特に大規模なデータセットでは、データパターン分析による再識別リスクは依然として大きな懸念事項です。

University of OxfordのLuc Rocherは、強力な生成AIモデルを構築しながら患者のプライバシーを保護することの本質的な課題を強調しています。AIにとってデータを価値あるものにするデータの豊富さは、匿名化を非常に困難にします。Rocherは、安全な使用を保証するために、これらのモデルに対するNHSの厳格な管理を提唱しています。

NHS DigitalのMichael Chapmanは、匿名化されたデータであっても、再識別の固有のリスクを認識しています。直接的な識別子は削除されますが、医療データの豊富さにより、完全な匿名性を保証することは困難です。

このリスクに対抗するために、Chapmanは、AIは「安全な」NHSデータ環境内で動作し、情報漏洩を制限し、承認された研究者のみがアクセスできるようにしていると述べました。Amazon Web ServicesとDatabricksは計算インフラストラクチャを提供しますが、データにアクセスすることはできません。

Imperial College LondonのYves-Alexandre de Montjoyeは、潜在的な情報漏洩を検出するために、モデルが訓練データを記憶する能力を検証することを提案しています。_New Scientist_から質問されたとき、Tomlinsonは、Foresightチームはまだこれらのテストを実施していないが、将来的に実施する予定であることを認めました。

公的信頼とデータ利用

University of OxfordのCaroline Greenは、信頼を維持するために、データの使用状況を一般に伝えることの重要性を強調しています。匿名化の努力にもかかわらず、人々は一般的に自分のデータを管理し、その行き先を理解したいと考えており、その倫理について非常に強く感じています。

現在の管理では、個人がForesightによるデータ利用をオプトアウトするための選択肢は限られています。全国的に収集されたNHSデータセットからのデータは、モデルの訓練に使用され、既存のオプトアウトメカニズムは、NHS Englandのスポークスパーソンによると、データが「匿名化」されているため適用されません。ただし、かかりつけ医からのデータ共有をオプトアウトした個人のデータは、モデルに含まれません。

GDPRとデータの匿名化

一般データ保護規則(GDPR)では、個人は個人データの使用に対する同意を撤回するオプションを持つことが義務付けられています。ただし、ForesightのようなLLMのトレーニングプロセスでは、AIツールから単一のレコードを削除することは不可能です。NHS Englandのスポークスパーソンは、モデルのトレーニングに使用されるデータは匿名化されており、個人データには該当しないため、GDPRは適用されないと主張しています。

英国情報コミッショナー事務局のウェブサイトでは、「匿名化された」データは匿名データと互換性があるものとして使用されるべきではないと明記されています。英国のデータ保護法ではこの用語を定義しておらず、その使用は混乱を招く可能性があります。

medConfidentialのSam Smithによると、法的立場は、Foresightが現在COVID-19に関連する研究に使用されていることによってさらに複雑になっています。これにより、パンデミック中に制定されたデータ保護法に対する例外が認められています。Smithは、COVID専用AIには、研究室から持ち出すべきではない患者データが埋め込まれている可能性があり、患者は自分のデータ使用を管理すべきだと主張しています。

倫理的考察

AI開発のための医療データの使用を取り巻く倫理的考察は、Foresightを不安定な立場に置いています。Greenは、倫理と人間的配慮は、事後ではなく、AI開発の出発点となるべきだと主張しています。

懸念事項のより深い検証

ForesightによるNHS医療記録の使用を取り巻く懸念は、単なるデータプライバシーを超えて広がっています。それらは、個人健康情報の所有権、アルゴリズムバイアスの可能性、およびAIが医師と患者の関係に及ぼす長期的影響に関する根本的な問題に触れています。

健康データの所有権と管理

中心的な倫理的ジレンマの1つは、個人が自分の健康データをどの程度管理すべきかということです。NHSが効果的なケアを提供するために患者情報へのアクセスを必要とするのは疑いの余地がありませんが、このデータをAIトレーニングに使用すると、個人がそのような二次的な使用について十分に知らされ、同意する権限を与えられているかどうかについて疑問が生じます。

現在のオプトアウトメカニズムは、AIトレーニングの複雑さに完全に対処していないため、不十分です。匿名化されたデータはGDPRの下で個人データではなくなったという議論は、匿名化されたデータでさえ潜在的に再識別されたり、個人に関する推論を引き出すために使用されたりする可能性があるという現実を見落としている法的解釈です。

より堅牢なアプローチとしては、患者データがAIの研究開発にどのように使用されるかを明示的に概説するインフォームドコンセントのシステムを実装することが挙げられます。これには、そのような使用の潜在的な利点とリスクを明確かつアクセス可能な説明で示すだけでなく、個人にオプトインまたはオプトアウトする有意義な機会を提供する必要があります。

アルゴリズムバイアス

もう1つの重要な懸念事項は、大規模なデータセットでトレーニングされたAIモデルにおけるアルゴリズムバイアスの可能性です。Foresightのトレーニングに使用されたデータが既存の健康格差を反映している場合、モデルはこれらの不平等を永続させ、さらには増幅させる可能性があります。

たとえば、特定の人口統計グループがデータセットで過小評価されている場合、またはそれらの病状が誤診されているか、または過小治療されている場合、AIはこれらのグループの病気や入院の予測において精度が低下する可能性があります。これにより、医療リソースへの不平等なアクセスが発生し、既存の健康格差が悪化する可能性があります。

アルゴリズムバイアスのリスクを軽減するには、Foresightのトレーニングに使用されるデータを注意深く分析し、潜在的なバイアスを特定して対処することが不可欠です。これには、過小評価されているグループのオーバーサンプリング、データの不正確さの修正、および公正かつ公平になるように特別に設計されたアルゴリズムの開発が含まれる場合があります。

医師と患者の関係への影響

ヘルスケアにおけるAIの使用が増加すると、従来の医師と患者の関係が大きく変化する可能性があります。AIは間違いなく医師がより多くの情報に基づいた意思決定を行うのに役立ちますが、ケアの人間的要素を置き換えないようにすることが重要です。

患者は、医師がAIを臨床的判断を強化するためのツールとして使用していることを確信する必要があり、その代替としてではありません。医師と患者の関係は、信頼、共感、および共有された意思決定の関係のままである必要があります。

医師と患者の関係を保護するには、ヘルスケアにおける人間の相互作用とコミュニケーションの重要性を強調することが重要です。医師は、意思決定プロセスにおけるAIの役割を効果的に伝え、患者が抱える可能性のある懸念に対処するように訓練される必要があります。

前進するための道筋を見つける

ヘルスケアにおけるAIを取り巻く複雑な倫理的および法的状況をナビゲートするには、多面的なアプローチが必要です。

  • **透明性と公的関与:**患者データがどのように使用されているかをオープンに伝え、ヘルスケアにおけるAIの倫理的影響に関する議論に公衆を関与させます。
  • **データ保護の強化:**再識別のリスクを最小限に抑え、個人が自分の健康データをより強力に管理できるように、より厳格なデータ保護対策を実装します。
  • **アルゴリズムバイアスの解消:**すべての人に公平な医療アクセスを確保するために、AIモデルのアルゴリズムバイアスを積極的に特定して軽減します。
  • **人間中心のケアの優先順位付け:**医師と患者の関係の重要性を強調し、AIが人間の相互作用を強化するためのツールとして使用され、置き換えるべきではないことを確認します。

これらの懸念に対処することで、患者のプライバシーを保護し、公平性を促進し、ケアの人間的要素を維持しながら、ヘルスケアにおけるAIの変革の可能性を活用することができます。ヘルスケアの未来は、これらの課題に責任を持って倫理的に対処する能力にかかっています。そうして初めて、AIが患者と社会全体の最大の利益のために真に役立つことを保証できます。