大規模言語モデルと臨床研究

この記事は約3分で読めます。

生成AIの登場により、世の中の執筆作業などは大幅に変わって行く途中にあります。代表的なChatGPTはOpen AI社が開発した対話型の大規模言語モデル(large language model, LLM)であるGPTがweb上で利用可能な形で実装されたものです。2024年8月現在はClaude3など、多くの生成AIが登場しました。性能もどんどん向上し、アップデートが追いつかないレベルにあります。画像生成AIや、Perplexityなどの調べ物にも有用なAIが登場し、使いこなせるのと使いこなせないのでは効率に差が出るようになっています。

各所でセミナーなどが開催されていますが、文字通り日々進化している状態であるため追いつき続けるのは困難でしょうから、あまり最新情報を追い求めすぎないことが大事です。

基本的には
・アイデアや論理構成の壁打ち
・データの整備や解析コードの相談
・文法の校正
が主軸になります。

ただ、大事な点はこれらはあくまでお助けツールであり、臨床研究の本質ではないという事です。
大事な点は、良いテーマを選び、正しく問いを立てる事です。
これこそが臨床研究の本質であり、中々できない事です。

本稿は分かりやすくChatGPTとまとめていますが、実際にはAI/LLM全体に関する話です。流石に周知のレベルにあると思いますが、昨今はこれらのAIを用いること是非が問われるレベルにまでその質が向上しています。SNSや医学誌などでも議論されていますが、下記は著者個人の見解です(本稿含め当サイトではChatGPTに書いてもらっていません笑)。

雑誌毎にポリシーが違うのですが、新しく創設されたNEJM AIのeditorialでは『LLMを用いたことを明示するのと、著者が責任を取る必要がある』という2つの原則を満たせばむしろ使用を推奨するとされています。

Why We Support and Encourage the Use of Large Language Models in NEJM AI Submissions

Just a moment...

普通に考えてこれほど便利であるものを用いるのを止める術も理由もないと思います。今後のAIの発展を考えても「AIとどう付き合っていくか」が大事になるのは間違いありません。様々な雑誌から似たような寄稿がありますが、事実上は利用者の判断と良識に委ねられているというのが現状だと思います。

これから類似のサービスや便利系ツールが沢山出てくるでしょう。また、その精度が飛躍的に向上していくのも目に見えています。大事なのは個々のツール全てを把握しようとするのではなく、自分に合ったサービスを利用することです。ChatGPTのように主要なものを取り敢えず使っている中で、「こういうところが不便だな」というのが分かれば次に用いるツールがわかるようになるはずです。現状の問題点としていくつか指摘されていますが、それらもすぐに変わるでしょう。

  • 勝手に事実を作り上げる、がすぐに事実に基づく結果を出せるようになる
  • 論理構成までは踏み入れない、がある程度の論理構成の指摘はできるようになる
  • データを入力すれば図表を返してくれる
  • データを入力して解析手法を入れれば、解析結果を返してくれる

こうなると、これまで臨床研究において大事な部分は結局「アイデア」になります。そして、SNSでも議論がありましたが、将来的には一部の重要文献を除いて大半の論文はAIを介した要約しか読まれない、AIが重要でないと判定した物は要約すらされなくなると思います。

今の時代は論文の大量生産大量消費時代であり、一部の主要誌以外はほとんど有象無象の扱いになる日はそう遠くないのでは、という気すらします。

少なくとも、

  • 利用はすれば良いが、倫理観を持って扱う
  • 出てきた結果を自分で考え、鵜呑みにしない
  • 剽窃になる可能性は現時点では低いが注意する
  • 患者情報や個人情報を入れるときは注意する

などの点は意識して使いましょう。

タイトルとURLをコピーしました