Nebula XAI

Experience the future artificial intelligence

當心偽造的AI生成的醫療信息

警惕虛假,AI生成的醫療信息

儘管AI聊天機器人(例如Chatgpt)作為新聞工具有用,但至關重要的是避免接受他們提供的信息。加利福尼亞州阿納海姆市美國衛生系統藥劑師學會的12月會議上發表的兩項研究強調了聊天機器人的持續局限性。

**研究1:Chatgpt藥物信息的準確性**

***目的:**來自日本iwate醫科大學和加利福尼亞州托倫斯紀念醫療中心的研究人員和藥劑師將Chatgpt的數據與詞彙的信息(基於證據的臨床參考)提供了30種藥物的信息。

* **結果:**

* Chatgpt正確回答了30個毒品查詢中的兩個。

*對於26種藥物的信息是不正確的,其餘兩種的信息部分不正確。

*儘管Chatgpt可能會改善作為學習系統,但諮詢藥劑師或醫生就藥物有關的查詢仍然是必不可少的。

**研究2:Chatgpt的藥劑師查詢處理**

***目的:**紐約長島大學藥學院的研究人員評估了Chatgpt對藥劑師對藥物信息服務的39個查詢的回答。

* **結果:**

* ChatGpt未能提供74%的問題的任何回應,或者給出了不准確或不完整的答复。

* chatgpt經常捏造的參考文獻,提供導致不存在研究的URL。

*在一個例子中,Chatgpt錯誤地指出,一種用於COVID-19治療的抗病毒和血壓藥物Verelan Paxlovid之間沒有藥物相互作用。但是,這些藥物可以相互作用,可能導致過度降低血壓。

* Chatgpt錯誤地建議了肌肉痙攣藥物從注射劑到口服形式的轉化,並引用了不存在的組織的指導。推薦的劑量降低了1,000倍,可能導致處方不正確。

**對記者的影響**

*醫學研究記者應通過檢查利益衝突的研究並尋求獨立研究人員的評論,繼續進行盡職調查。

*遵循與AI生成的醫療信息和醫學社會和監管機構指導有關的新聞報告。

*向研究人員詢問他們的研究數據源和驗證方法。

*在發布之前,請驗證具有獨立資源或同行評審引用的其他AI工具獲得的任何信息。

**其他資源:**

* [CHATGPT FLUBBED藥物信息問題](https://www.medpagetoday.com/meetingcoverage/ashp/107716?xid=nl_medpageExclivery_2023-12-11&eeeun = 970669d0r&utm_soilcce = soildthrummitumit= mmmmmedumit=mmmmedumm = _121123& utm_term = NL_GEN_INT_MEDPAGE_EXCLUSIVES_ACTIVE) – 今天文章

* [chatgpt尚未準備好在黃金時間進行藥物查詢](https://www.pharmacypracticenews.com/online-first/article/12-23/chatgpt-not-not-not-read-prime-for-prime- prime-prime-prime-prime-for-prime-for-medication-medication-medication-medicies-medicies-medicies- /72307) – 藥學實踐新聞文章

* [chatgpt生成偽數據集以支持科學假設](https://www-nature-com.proxy1.library.jhu.edu.edu/articles/d41586-023-03635-w#ref-cr1) – 自然文章

* [諸如ChatGpt之類的生成AI工具及其在醫療保健中的潛力:記者的入門](https://healthjournalism.org/blog/blog/2023/03/generative-generative-ai—– ————————chatgpt-and-whir-their-their-potential-potential-potential-potential-potential-衛生服務- 新聞工作者/) – 2023年3月的AHCJ博客文章

See also  Chatgpt的2024年期望:AGI,GPT-5開發和用戶友好功能的進展