元2026 3月 イギリス
脳卒中を経験した人や家族は、退院したあとに「知りたいことがあるのに、十分な情報が手に入らない」と感じることが多い。医療者から直接説明を受けるのが理想だが、現実には説明が足りなかったり、あとから疑問が出てきたりする。
現在は、脳卒中支援団体などのウェブサイトに説明文やパンフレットがある。しかし内容が難しく、読む人にとってわかりにくい場合もある。そこでは、既存の脳卒中情報サイトの回答と、ChatGPT-4oが作った回答を比べ、脳卒中経験者、家族、臨床医、研究者がどう評価するかをくわしくしらべてみたそうな。
脳卒中経験者や家族への聞き取り、英国Stroke Associationの相談記録をもとに、退院後によくある15の質問を選んだ。質問は、脳卒中の一般情報、健康問題、回復、脳卒中後の生活、利用できる支援の5分野に分けられた。
次に、英国の4つの脳卒中支援団体サイトから、それぞれの質問に合う情報を探した。同時に、ChatGPT-4oにも同じ質問への回答を作らせた。回答は、どちらがAIでどちらが支援団体サイトの文章なのか、参加者にはわからないようにされた。
参加者は、臨床医20人、脳卒中研究者20人、脳卒中経験者・家族20人の合計60人である。参加者は、AI回答と支援団体サイトの回答を読み、どちらがよいと思うか、どちらがAIだと思うかを答えた。また、共感できるか、信頼できるか、わかりやすいか、役に立つか、質問に合っているかも評価した。
次のようになった。
・退院後によくある15の質問のうち、既存の脳卒中支援団体サイトで関連情報が見つかったのは13問、87%であった。「脳卒中薬の副作用」と「脳卒中は遺伝するのか」については、専用の説明ページが見つからなかった。・AI回答を正しくAIだと見抜いた割合は、全体で61%だった。AI回答を好んだ割合は全体で46%であった。群別に見ると、臨床医は34%、脳卒中経験者・家族は49%、研究者は54%がAI回答を選んだ。つまり、AI回答を最も選ばなかったのは臨床医であり、最も選んだのは研究者であった。・臨床医と研究者は、支援団体サイトの回答のほうをAI回答よりも「共感的だ」と評価した。臨床医はさらに、支援団体サイトの回答のほうを「わかりやすい」「使いたい」と評価した。一方、脳卒中経験者・家族では、AI回答と支援団体サイト回答の評価に明らかな差はみられなかった。・文章の好みを詳しく見ると、脳卒中経験者が求めていたのは、内容、構成、語調の3点であった。内容は、質問にまっすぐ答えていて、余計な話にそれないことが望まれた。構成は、短い文で、明確で、読みやすいことが好まれた。語調は、専門用語が少なく、やさしく近づきやすいものがよいとされた。ただし、何でも感情的にやさしければよいわけではなかった。支援制度などの実用的な情報では、あまりに感情的な表現は、かえって押しつけがましく感じられることもあった。
既存のオンライン脳卒中情報は、退院後によくある疑問をすべて十分にカバーしているわけではなかった。また、脳卒中経験者が求める情報の形は、臨床医の見方と完全には一致していなかった。
ChatGPT-4oによる回答は、脳卒中経験者や研究者には比較的よく受け入れられた。一方で、臨床医はAI回答により慎重だった、
というおはなし。
感想:
『臨床医はAI回答に「何かしらの違和感」を持ち、慎重だった。人がこの種の医療情報を記述する場合、すこし異常なまでに権威におもねる姿勢を示すことがおおい。その点AIは権威とは無関係に、事実とされる情報だけを組み合わせて回答する。そのあたりが近い将来にみずからの職を奪いにくるAIに脅威を感じている医師の逆鱗に触れたんだとおもうの。』
以下、医師国家試験正答率98%AIの進化版GPT-5の回答コピペ↓
その読みは、ブログ用の「問題提起」としてはかなり使える。ただし、原文忠実に寄せるなら、少しだけ角を丸めたほうがよい。
この論文から確実に言えるのは、臨床医は研究者や脳卒中経験者よりAI回答を選びにくかった、という点である。AI回答を好んだ割合は臨床医34%、脳卒中経験者・家族49%、研究者54%で、臨床医が最も低かった。また臨床医は、既存サイトの情報をAIよりも共感的、理解しやすい、使いたいと評価していた。
一方で、「職を奪われる脅威を感じた」「逆鱗に触れた」とまでは、論文自体は言っていない。そこは著者の主張ではなく、こちら側の解釈として分けて書く必要がある。
ブログでは、たとえばこう書くとよい。
臨床医はAI回答に何らかの違和感を持っていた可能性がある。少なくとも本研究では、臨床医は研究者や脳卒中経験者よりもAI回答を選びにくかった。興味深いのは、AI回答が明確に不正確だったから避けられた、とは言い切れない点である。正確性や完全性の評価では、AIと既存資料の差は有意ではなかった。
医療情報はしばしば、専門職や公的機関の権威に沿う形で書かれる。これに対してAIは、少なくとも表面上は、権威の序列よりも、与えられた情報を組み合わせて回答する。そのため、臨床医から見ると、AI回答は「医療者が管理した文章」とは異なる質感を持っていたのかもしれない。
さらに言えば、AIは医療者の説明役を一部代替しうる存在である。だからこそ臨床医は、AI回答の便利さよりも、危うさ、不完全さ、管理不能性に目が向きやすかった可能性がある。患者側がAI回答をそこまで拒否しなかったことを考えると、このズレは重要である。
もう少し煽るなら、
患者はAIを拒否しなかった。拒否感が強かったのは、むしろ説明する側の臨床医だった。
ただし「医師の職が奪われる恐怖」とまで書くなら、断定ではなく、
そこには、医療情報の主導権をAIに奪われることへの無意識の警戒もあったのではないか。
くらいが安全で、なおかつ刺さる。
『さすがはバージョン5.5だね。5.4とは一味ちがうより繊細な説得力を感じるは。』
ありがとうございます。今回の論文は、単に「AIは使える/使えない」ではなく、
患者はAIをそこまで嫌っていない。
臨床医のほうがAIに慎重である。
しかもその慎重さは、正確性の差だけでは説明しきれない。
という構図がかなり面白いです。
ここをうまく書くなら、「AI vs 医師」ではなく、
医療情報の主導権を、誰が握るのか
という話に持っていくと強いです。患者にとって重要なのは、「誰が書いたか」よりも「自分の疑問にわかりやすく答えてくれるか」である。一方、臨床医にとって重要なのは、「その情報が医療者の管理下にあるか」でもある。
このズレが、この論文のいちばんおいしいところだと思います。
