は、偽の、AIに生成された医療情報に注意してください
Journalistic ToolsとしてのChatGptのようなAIチャットボットの有用性にもかかわらず、額面通りに提供する情報を受け入れることを避けることが重要です。カリフォルニア州アナハイムで開催された米国保健システム薬剤師協会の12月の会議で発表された2つの研究は、チャットボットの継続的な限界を強調しました。
**研究1:ChatGptの薬物情報の精度**
*****日本の岩石医科大学およびカリフォルニア州トーランスメモリアルメディカルセンターの研究者と薬剤師は、30の薬物のエビデンスに基づいた臨床リファレンスであるLexicompの情報とChatGPTのデータと対照的です。
* **結果:**
* ChatGptは、30の薬物照会のうち2つだけに正しく答えました。
* 26の薬物では情報が正しくなく、残りの2つの薬物では部分的に不正確でした。
* ChatGptは学習システムとして改善する可能性がありますが、薬剤師または医師に麻薬関連のクエリを相談することは依然として不可欠です。
**研究2:ChatGptの薬剤師の問い合わせの取り扱い**
**対目的:**ニューヨークのロングアイランドユニバーシティ大学薬局の研究者は、薬剤師が薬物情報サービスに提起した39の質問に対するChatGPTの回答を評価しました。
* **結果:**
* ChatGPTは、質問の74%に対して、応答を提供できなかったか、不正確または不完全な応答を与えました。
* ChatGptは頻繁に製造された参照を作成し、存在しない研究につながったURLを提供します。
*ある例では、CHATGPTは、COVID-19治療に使用される抗ウイルス性と血圧薬であるVerelanの間に薬物相互作用がないと誤って述べました。ただし、これらの薬は相互作用し、過度の血圧低下を引き起こす可能性があります。
* CHATGPTは、存在しない組織からのガイダンスを引用して、筋肉のけいれん薬の注射剤から経口形態への変換について誤ってアドバイスしました。推奨される投与量は1,000倍になり、誤った処方につながる可能性がありました。
**ジャーナリストへの影響**
*医学研究ジャーナリストは、利益相反の研究を調査し、独立した研究者からコメントを求めることにより、デューデリジェンスを継続する必要があります。
* AIの生成された医療情報と医学社会および規制当局からのガイダンスに関連するニュースレポートに従ってください。
*研究データソースと検証方法について研究者に尋ねます。
*公開前に、独立したソースまたはピアレビューされた参照を持つChATGPTまたはその他のAIツールから取得した情報を確認します。
**追加リソース:**
* [chatgptは薬物情報の質問] _121123& utm_term = nl_gen_int_medpage_exclusives_active) – Medpage Todayの記事
* [薬のクエリのプライムタイムの準備ができていないChatGpt](https://www.pharmacypracticenews.com/online-first/article/12-23/chatgpt-not-not-por-por-por-time-for-medication-queries- /72307) – 薬局の実践ニュース記事
* [chatgptは科学的仮説をサポートするための偽のデータセットを生成します](https://www-nature-com.proxy1.library.jhu.edu/articles/d41586-023-03635-w#ref-cr1) – ネイチャー記事
* [CHATGPTやヘルスケアの可能性などの生成AIツール:ジャーナリストのための入門書](https://healthjournalism.org/blog/2023/03/generative-ai-tools-like-chatgpt-and-their-potential- In-Health-Care-A-Primer-For-Journalists/)-AHCJブログ投稿2023年3月