科学データとAI ― 「フェイクデータ」の時代にどう向き合うか?(論文要旨とコメント)
はじめに
2022年に登場したChatGPTをはじめとする「大規模言語モデル(LLM)」は、私たちの生活だけでなく、医学や科学の研究の現場にも急速に広がっています。たとえば、眼科の試験問題への解答、症例の要約、論文の作成支援など、実際に臨床で使えるレベルの成果が次々と報告されています。
しかし、便利さの裏には大きな落とし穴もあります。今月号(2025年6月)のJAMA Ophthalmology誌では、ホン・ウエン・フア医師が「AIが作る偽の科学データ(フェイクデータ)」の問題について警鐘を鳴らしています。
ChatGPTが「研究データ」を作る?
Taloniらの研究では、ChatGPT-4に「研究データを作らせる」という実験が行われました。最初に作られた12の合成データのうち、4つは「人間がチェックしても不自然と判別できなかった」ほど現実味がありました。
その一方で、「患者の名前と性別が一致していない」「検査日が土日になっている」「年齢計算が間違っている」といった明らかなエラーもありました。つまり、AIが作るデータには、一見本物らしくても、不自然な点が混ざっているのです。
なぜこれが問題なのか?
現代の科学論文は、「名誉」と「査読」によって信頼を担保しています。査読とは、他の専門家が論文の中身をチェックする過程のことです。しかし、AIによって「うまくごまかされた」データを見抜くのは、人間の目だけでは限界があるのも事実です。
特に以下のような点は、AIで作られたデータに見られる不整合として挙げられます:
- 年齢や日付などの数値に不自然なパターンがある
- ベースライン(初回検査日)が土日に設定されている
- 検査項目の値のばらつきが不自然に均一
- 統計的にありえない相関関係が含まれている
科学の世界はどうすべきか?
今のところ、論文のデータが本物かどうかをチェックする「標準的なAI検出ツール」は存在していません。査読者の目に頼っているのが現状です。Taloniらの研究は、この「目検チェック」が限界に達しつつあることを示しています。
たとえば、捏造データの「下一桁」が不自然に均等だったり、土日に設定された初診日が多かったりする点など、人の目では見逃しがちな不整合をAIがうまくカモフラージュできてしまうのです。
科学不正は昔からある
AI時代以前にも、データ捏造は大きな問題でした。エリザベス・ホームズによる血液検査ベンチャー「セラノス」の詐欺事件や、ワクチンと自閉症の偽論文を発表したアンドリュー・ウェイクフィールド事件などが記憶に新しいでしょう。
しかしAIの登場によって、「誰でも・簡単に・それらしく」捏造データを作ることが可能になってしまいました。つまり、科学的不正の「敷居」が下がってしまったのです。
それでも誠実な研究者が大半
幸いにも、現在の科学者のほとんどは正しい手続きに則り、誠実に研究を行っています。PubMedで登録されている論文の撤回率はわずか0.02%。細胞生物学の雑誌でも、約1%しか不正は見つかっていません。
しかし、それは「0%ではない」ことの証拠です。AIが進化し、合成データの精度が上がれば、この1%が増えるリスクもあります。
コメント:眼科医としての立場から
臨床現場では、ChatGPTのようなAIの導入は非常に魅力的です。症例報告の整理や、論文の読み解き、あるいは患者向けの説明文の作成などに役立っています。しかし、その便利さと引き換えに、私たちは「どこまでがAIの補助で、どこからが人間の責任か」を常に意識する必要があります。
データや論文を精査する際にも、数字の「リアリティ」や統計処理の妥当性を鵜呑みにするのではなく、「常識」に照らし合わせて再確認する視点を忘れてはならないと感じます。
AIはあくまでも道具であり、研究や診療の最終的な責任を持つのは私たち人間です。特に、患者の生命や視力に関わる医学研究では、その倫理的なハードルは一層高くあるべきでしょう。
原典情報
Hua, Hong-Uyen, MD.
“Scientific Data Fabrication and AI—A Pandora’s Box.” JAMA Ophthalmology. Published online April 24, 2025.
DOI: 10.1001/jamaophthalmol.2025.0936
コメント