
ChatGPTはOpen AI社が開発した対話型の大規模言語モデルがwebで実装されたものです。流石に周知のレベルにあると思いますが、昨今はこれらのAIを用いること是非が問われるレベルにまでその質が向上しています。SNSや医学誌などでも議論されていますが、下記は著者個人の見解です(本稿含め当サイトではChatGPTに書いてもらっていません笑)。Bardや他の大規模言語モデルに関しても同様です。
まず、第一にこれほど便利であるものを用いるのを止める術はないと考えています。いくら「AIを使って論文を書かないように」といったところでこれほどまでに便利なものを使わずにはいれませんし、今後のAIの発展を考えても「AIとどう付き合っていくか」が大事になるのは間違いありません。様々な雑誌から似たような寄稿がありますが、事実上は利用者の判断と良識に委ねられているというのが現状だと思います。
これから類似のサービスや便利系ツールが沢山出てくるでしょう。また、その精度が飛躍的に向上していくのも目に見えています。大事なのは個々のツール全てを把握しようとするのではなく、自分に合ったサービスを利用することです。ChatGPTのように主要なものを取り敢えず使っている中で、「こういうところが不便だな」というのが分かれば次に用いるツールがわかるようになるはずです。現状の問題点としていくつか指摘されていますが、それらもすぐに変わるでしょう。
- 勝手に事実を作り上げる、がすぐに事実に基づく結果を出せるようになる
- 論理構成までは踏み入れない、がある程度の論理構成の指摘はできるようになる
- データを入力すれば図表を返してくれる
- データを入力して解析手法を入れれば、解析結果を返してくれる
こうなると、これまで臨床研究において大事な部分は結局「アイデア」になります。そして、SNSでも議論がありましたが、将来的には一部の重要文献を除いて大半の論文はAIを介した要約しか読まれない、AIが重要でないと判定した物は要約すらされなくなると思います。
今の時代は論文の大量生産大量消費時代であり、一部の主要誌以外はほとんど有象無象の扱いになる日はそう遠くないのでは、という気すらします。
例えば、下記はすきとほるさん(@iznaiy_emjawak)が紹介されていた臨床研究用ChatGPTプロンプトです。こちらのページを見たら分かりますが、これだけのものが簡単?に書けてしまう現状ですら恐ろしいなと思います。
少なくとも、
- 利用はすれば良いが、倫理観を持って扱う
- 出てきた結果を自分で考え、鵜呑みにしない
- 剽窃になる可能性は現時点では低いが注意する
- 患者情報や個人情報を入れるときは注意する
などの点は意識して使いましょう。