──そのトリアージの精度はどうですか。

沖山氏 個人的な感想ですが、「これはちょっと違うな」と感じることもありますが、おおむね正しい判断がされていると思っています。ただし、あくまで「おおむね」で、例外を拾うのが救急医ですし、98%の精度で正しく判断できているから救急医は不要、ということには決してなりません。

 救急の場合、オーバートリアージの容認という概念がありますから、迷ったら安全な方を選びましょうという考え方が入ったアルゴリズムになっています。なので、思ったより軽症だったな、と感じることはありますが、でもこの考え方が正解ですよね。

──予防的原則があるので、迷ったら2次、3次と上がりやすくはなっているけれど、この東京都の救急のアルゴリズムは既に一定の機能を果たしているということですね。

沖山氏 はい。そして同じことは診断の領域でも進むのではないでしょうか。予診や検査の情報があって、候補となる疾患名をリストアップしていって、しかも頭から抜けてしまいがちな、だけど見逃してはいけない疾患も入っている。そんな便利なツールが登場したら、医師としてはとても助かりますよね。

──AIがミスをしたらどう責任をとるのか、という意見についてはどうお考えになりますか。

沖山氏 責任という意味では法律的な議論になりますが、総論としてはまだ、AIによるアシストを受けて、最終的な判断と責任は医師の下にあるという時期にあると思っています。しかし、AIは人間の医師と敵対する存在ではありません。医師は国家試験で合格すると基本的になんでもできるようになりますが、そこがゴールではなく、研修しなければ一人前とは言えませんし、その後も一生学び続ける存在です。人間も完璧ではありません。米国の調査結果ですが、米国全体で年間に行われるレントゲンやCTの読影のうち、1200万回の誤診とか見逃しがあるというデータがあります。人間が完璧ならばAIを責められますが、もし医師の読影に1200万回の見逃しがあり、AIの読影では120万回だとすると、AIを活用することで120万回も見逃しがあるけれど、10分の1に減るわけです。人間もAIもそれぞれ成長します。だとすれば、お互いに批判し合うのではなく、協力し合えばいいわけですよね。