SHARE:

AIチャットボットで健康相談、知っておくべきこと

米国では数億人がチャットボットを利用しており、その多くが健康や医療に関する助言を求めるケースが増えている。
診療のイメージ(Getty Images)

人工知能(AI)チャットボットに健康に関する質問をする前に知っておくべきことが専門家の間で議論されている。米国では数億人がチャットボットを利用しており、その多くが健康や医療に関する助言を求めるケースが増えている。こうした流れを受け、テック企業各社は健康相談機能を強化したAIサービスの提供を始めているが、医療専門家は利用にあたって注意が必要だと指摘している。

今年1月、OpenAIは新たに「ChatGPT Health」と呼ばれる健康向けのチャットボット機能を導入したと発表した。同社によると、この機能はユーザーの医療記録やウェアラブル機器のデータなどを分析し、健康・医療に関する質問に答える能力を持つという。また、AI企業アンソロピックも類似の機能を提供しており、より個別化された助言が得られるとしている。だが両社とも、これらのAIはプロの医療ケアの代替にはならず、診断や治療の決定に使用すべきではないとしている。

専門家はAIチャットボットが単なる検索よりも文脈に応じた具体的な情報を提供できる点は評価しているものの、その限界を理解する重要性を強調する。カリフォルニア大学サンフランシスコ校はチャットボットについて、「責任を持って使えば有益な情報を得られる」としつつも、重大な症状についてはチャットボットに頼るべきでないと述べている。特に息切れや胸痛、激しい頭痛などの緊急性の高い症状がある場合は、直ちに医療機関を受診すべきだと警告している。

また、スタンフォード大学医学部も、AIの情報には「健康的な懐疑心」を持つべきだと述べている。重大な健康上の決定や治療方針については、AIの回答だけを頼りにするべきではなく、医師との相談が不可欠だとした。

プライバシーの問題も重要な論点だ。ユーザーが自らの医療情報をAIにアップロードすることで、より精密な応答が可能になるが、このデータは米連邦医療保護法(HIPAA)の対象外となるため、通常の医療情報ほどの保護が受けられない。専門家はAI企業に情報を提供する行為は医療機関に記録を預けることとは全く異なり、ユーザーは個人情報の扱いについて十分に理解する必要があると語る。両社はユーザーが情報共有に同意する場合にのみその情報を扱い、他のデータと分離して保護するとしているが、完全な安全性を保証するものではない。

初期の研究では、AIチャットボットが医学的シナリオに対して高い正答率を示す一方で、実際のユーザーとの対話では誤解や不十分な情報により、期待した結果が得られないこともあると報告されている。ユーザーが詳細な情報を提供しなかったり、AIが正確でない情報を混ぜて回答したりするケースがあり、利用者が良否の判断に苦労する場面もあるという。

現時点でAIチャットボットは医療専門家に代わるものではなく、健康に関する教育的な補助ツールとして利用することが現実的である。医師の診断を補完する手段としての活用は期待されるが、緊急時や重要な健康判断では専門家との直接の相談が不可欠である。利用者はAIの利便性と限界を理解し、適切な使い方を心掛ける必要がある。

この記事が気に入ったら
フォローしよう
最新情報をお届けします