거짓의 의료 정보에주의하십시오
Chatgpt와 같은 AI 챗봇이 저널리즘 도구로 유용 했음에도 불구하고 액면가로 제공하는 정보를 수락하지 않도록하는 것이 중요합니다. 캘리포니아 애너하임에서 열린 미국 보건 시스템 협회 (American Society of Health-System Pharmacist)의 12 월 회의에서 발표 된 두 가지 연구는 챗봇의 지속적인 한계를 강조했다.
** 학습 1 : Chatgpt의 약물 정보 정확도 **
*** 목표 : ** 일본의 Iwate Medical University의 연구원과 약사와 캘리포니아의 Torrance Memorial Medical Center는 Chatgpt의 데이터를 30 개의 약물에 대한 증거 기반 임상 참조 인 Lexicomp의 정보와 대조했습니다.
* **결과:**
* Chatgpt는 30 개의 약물 문의 중 2 개만 올바르게 답변했습니다.
* 26 개의 약물에 대한 정보가 잘못되었으며 나머지 2 개에 대해 부분적으로 부정확했습니다.
* Chatgpt는 학습 시스템으로 향상 될 수 있지만 약물 관련 쿼리를 위해 약사 나 의사를 상담하는 것은 필수적입니다.
** 연구 2 : Chatgpt의 약사 조사 처리 **
*** 목표 : ** 뉴욕의 Long Island University College of Pharmacy의 연구원들은 약사가 약사 정보 서비스에 대한 39 개의 쿼리에 대한 Chatgpt의 답변을 평가했습니다.
* **결과:**
* Chatgpt는 질문의 74%에 대해 응답을 제공하지 않았거나 부정확하거나 불완전한 응답을 제공하지 못했습니다.
* Chatgpt는 자주 참조를 제작하여 존재하지 않는 연구로 이어지는 URL을 제공했습니다.
* 한 예에서, Chatgpt는 Covid-19 치료에 사용되는 항 바이러스 인 Paxlovid와 혈압 약물 인 Verelan 사이에 약물 상호 작용이 없다고 잘못 언급했다. 그러나 이러한 약물은 상호 작용하여 잠재적으로 과도한 혈압 감소를 유발할 수 있습니다.
* chatgpt는 존재하지 않는 조직의 지침을 인용하여 근육 경련 약물의 주사에서 구강 형태로의 전환에 대해 잘못 조언했습니다. 권장 복용량은 1,000 배로 꺼져있을 가능성이 높아서 처방전이 잘못되었습니다.
** 언론인에 대한 시사점 **
* 의학 연구 기자는 이해 상충에 대한 연구를 조사하고 독립적 인 연구원의 의견을 찾아 실사를 계속해야합니다.
* 의료 사회 및 규제 기관의 AI 생성 의료 정보 및 지침과 관련된 뉴스 보고서를 따르십시오.
* 연구자들에게 연구 데이터 소스 및 검증 방법에 대해 물어보십시오.
* 게시 전에 독립적 인 소스 또는 동료 검토 참조가있는 ChatGpt 또는 기타 AI 도구에서 얻은 정보를 확인하십시오.
** 추가 리소스 : **
* [chatgpt flubbed 약물 정보 질문] (https://www.medpagetoday.com/meetingcoverage/ashp/107716?xid=nl_medpageexclusive_2023-12-11& eun=g970669d0r& utm _source=source=sailthru& _121123 & amp; utm_term = nl_gen_int_medpage_exclusives_active) – MedPage Today 기사
* [약물 쿼리를위한 프라임 타임에 대비할 수 없음] /72307) – 약국 연습 뉴스 기사
* [Chatgpt는 과학적 가설을 지원하기 위해 가짜 데이터 세트를 생성합니다] (https://www-nature-com.proxy1.library.jhu.edu/articles/d41586-023-03635w#ref-cr1)-자연 기사
* [Chatgpt 및 건강 관리 분야의 잠재력 : 기자를위한 입문서와 같은 생성 AI 도구] (https://healthjournalism.org/blog/2023/03/generative-ai-tools-like-chatgpt-andtheir-potential- 건강에 빠지고 사임자-) -2023 년 3 월부터 AHCJ 블로그 게시물