おはようございます、サスケです。
最近は、
ChatGPTをはじめとした生成AIを、
日常的に使っている方も増えてきましたよね。
調べものをしたり、
文章を書かせたり、
アイデアを出させたり。
本当に便利です。
ですが、
便利だからこそ、
気をつけなければならない使い方があります。
それが、
●医療アドバイスをAIに求めること
です。
今回、
British Medical Journalに寄稿された研究で、
主要なAIチャットボットに
健康や医療に関する質問をしたところ、
全体の半数で
問題のある回答が見られたそうです。
これ、
結構怖くないですか?
対象となったのは、
●ChatGPT
●Gemini
●DeepSeek
●Meta AI
●Grok
といった主要なAIたちです。
質問内容も、
かなり身近なもので、
●ビタミンDはがん予防になるのか
●新型コロナワクチンは安全か
●健康に最適なサプリは何か
といったものだったようです。
つまり、
一般の人が普通に検索しそうな内容なんですよね。
その結果、
回答の3分の1がやや問題あり、
さらに20%が極めて問題あり、
と分類されたとのこと。
極めて問題ありって、
なかなかの表現ですよね…
しかも、
専門家の助言なしで
その回答を実行した場合、
効果のない治療法に走ったり、
不要な危害につながる可能性がある
という話です。
これは、
単なる間違いでした、
では済まない話だと思います。
たとえば、
体調が悪くて不安な時って、
人は冷静ではいられません。
病院に行く前に、
ちょっとAIに聞いてみようとか、
検索するより早いから、
とりあえず聞いてみようとか、
そういう流れって、
普通にあると思うんです。
ですがその時に、
もっともらしい口調で、
不正確なことを言われたらどうでしょうか。
人って、
文章が自然で、
自信ありげに書かれていると、
つい信じてしまうんですよね。
これがAIの怖い所です。
間違っていても、
すごく正しそうに見えるんです。
しかも今回の研究では、
引用元が不完全だったり、
捏造されたりしているケースも
頻繁に見られたそうです。
つまり、
●それっぽい
●丁寧
●専門的に見える
この3つが揃っていても、
中身が正しいとは限らないわけです。
これは、
医療の話に限りません。
投資でも、
法律でも、
健康でも、
人生に影響が大きいテーマほど、
AIの答えをそのまま信じるのは危険です。
もちろん、
AIが全部ダメだと言いたいわけではありません。
使い方次第では、
本当に優秀です。
例えば、
●病名や症状について大まかに整理する
●病院で医師に何を聞けばよいかまとめる
●検査結果について用語をやさしく説明させる
このような使い方なら、
かなり便利だと思います。
でも、
●診断をさせる
●治療法を決める
●薬やサプリを自己判断で選ぶ
ここまでAIに任せるのは、
やはり危ないでしょう。
今回の結果を見て改めて思うのは、
AIは先生ではない
ということです。
優秀なアシスタントにはなります。
ですが、
命や健康に関わる判断を任せる相手ではありません。
特に医療系の話は、
人によって体質も違えば、
持病も違えば、
服用中の薬も違います。
同じ症状でも、
軽い場合もあれば、
すぐ受診が必要な場合もある。
そこを一律の文章で処理するのは、
やはり無理があるんですよね。
これから先、
AIはもっと進化していくでしょう。
医療分野でも、
補助ツールとしての活用は
どんどん広がると思います。
ですが現時点では、
AIの答えは参考まで
この距離感を保つのが大事です。
体のこと、
命のことに関しては、
最後は必ず専門家に確認する。
この当たり前のことが、
AI時代だからこそ
ますます大切になってくるのではないでしょうか。
便利さに飛びつくのではなく、
どこまで任せてよくて、
どこから先は人に聞くべきか。
そこを見極める力が、
これからの時代には必要ですね。
サスケ
疑問・質問などがありましたら、
お気軽にご相談くださいませ。
sasuketsusin@yahoo.co.jp