ChatGPT を医療アドバイスとして信頼すべきではない 5 つの理由

ChatGPT を医療アドバイスとして信頼すべきではない 5 つの理由
あなたのような読者が MUO をサポートします。当社サイトのリンクを使用して商品を購入すると、アフィリエイト手数料が発生する場合があります。 続きを読む。

OpenAI が開発した人工知能 (AI) チャットボットである ChatGPT は、医療上のアドバイスの要求を含む、多くの単純な質問や難しい質問に答えるためのオールインワン ツールとなっています。医学的な質問に答え、米国医師免許試験 (USMLE) に合格することはできますが、病院での医師との予約に代わることはできません。





その日のメイクアップビデオ スクロールしてコンテンツを続けてください

ChatGPT が進歩するにつれて、ヘルスケア分野を完全に変革する可能性があります。医療システムと統合すると、患者のケアへのアクセスが向上し、医師の作業効率が向上する可能性があります。ただし、AI ベースであるため、潜在的な危険性についていくつかの懸念が存在します。





1. ChatGPT の知識は限られている

  豚から心に

ChatGPT はすべてを知っているわけではありません。 OpenAI によると、特に 2021 年 9 月以降に何が起こったかに関して、ChatGPT の知識は限られています。





ChatGPT は検索エンジンやインターネットに直接アクセスできません。書籍、Web サイト、その他のテキストなど、多数のソースからの膨大なテキスト データを使用してトレーニングされました。配信しているデータを「認識」しません。代わりに、ChatGPT は読み取ったテキストを使用して、使用する単語とその順序についての予測を作成します。

したがって、医療分野の発展に関する最新のニュースを入手することはできません。はい、ChatGPT は、ブタからヒトへの心臓移植やその他の医学における最近の進歩については知りません。



2. ChatGPT が誤った情報を生成する可能性がある

ChatGPT はユーザーの質問に答えることができますが、その回答は不正確または偏っている可能性があります。によると PLoS デジタル ヘルス 研究によると、ChatGPT はすべての USMLE 試験において少なくとも 50% の精度で実行されました。また、いくつかの面で合格基準の 60% を超えていますが、それでもエラーの可能性はあります。

さらに、ChatGPT のトレーニングに使用される情報のすべてが本物であるわけではありません。未検証の情報や偏った可能性のある情報に基づいた回答は、不正確または古い可能性があります。医療の世界では、不正確な情報が命を落とすことさえあります。





ChatGPT は独自に資料を調査したり検証したりすることができないため、事実とフィクションを区別することができません。米国医師会ジャーナル (JAMA) を含む尊敬される医学ジャーナルは、ジャーナルに掲載される科学研究を人間のみが執筆できるという厳格な規制を設けています。結果として、 ChatGPT の応答を常に事実確認する必要があります 。

3. ChatGPT は身体検査をしません

医学的診断は症状だけに依存するわけではありません。医師は患者の身体検査を通じて、病気のパターンと重症度についての洞察を得ることができます。今日、医師は患者を診断するために、医療技術と五感の両方を活用しています。





ChatGPT は完全な仮想診断や身体検査さえも実行できません。メッセージとして提供された症状に対してのみ返信できます。患者の安全とケアにとって、身体検査の誤り、または身体検査を完全に無視することは有害となる可能性があります。 ChatGPT は身体検査を行っていないため、不正確な診断を提供します。

4. ChatGPT は虚偽の情報を提供する可能性がある

  ChatGPT の誤った応答

最近の研究によると、 メリーランド大学医学部 ChatGPT の乳がん検診に関するアドバイスに基づいて、次の結果が見つかりました。

「私たちの経験では、ChatGPT がその主張を裏付けるために偽の雑誌記事や健康コンソーシアムをでっち上げることがあります。」 —Paul Yi M.D.、UMSOM 放射線診断学および核医学助教授

ChatGPT のテストの一環として、潜在意識の主題を扱ったノンフィクション書籍のリストをリクエストしました。その結果、ChatGPT はグスタフ・クーン博士による「無意識の心の力」というタイトルの偽の本を作成しました。

Facebookはあなたのプロフィールを見た人を表示しますか

この本について問い合わせたところ、同社が作成した「仮説」の本であるとの答えが返ってきた。 ChatGPT は、さらに問い合わせなければ、雑誌の記事や書籍が虚偽であるかどうかを教えてくれません。

5. ChatGPT は単なる AI 言語モデルです

  チャットGPTメディカル

言語モデルは、患者の状態を検査したり研究したりするのではなく、テキストを記憶し一般化することによって機能します。言語と文法の点で人間の標準に一致する応答を生成しているにもかかわらず、 ChatGPT にはまだ多くの問題が含まれています , 他の AI ボットとよく似ています。

ChatGPT は医師の代わりではありません

医療に関する最終決定を下すには、人間の医師が常に必要となります。 ChatGPT は通常、医療上のアドバイスを求める場合は、資格のある医療従事者に相談するようアドバイスしています。

ChatGPT のような人工知能を利用したツールを使用すると、医師の予約をスケジュールし、患者が治療を受けるのを支援し、健康情報を維持できます。しかし、医師の専門知識や共感に代わることはできません。

身体的であれ精神的であれ、自分の健康状態を診断したり治療したりするために AI ベースのツールに依存すべきではありません。