Enews435 人工智慧聊天機器人 (ChatGPT) 可以為醫學提供什麼?(1)

出自KMU e-News

跳轉到: 導航, 搜索

高雄醫學大學e快報 第435期  分享園地

人工智慧聊天機器人 (ChatGPT) 可以為醫學提供什麼?(1)

■本校醫學院 劉克明名譽教授

  2023年2月27日 醫景醫學新聞 (Medscape Medical News) 刊登 Dr. Ute Eppinger的一篇報導 ”人工智慧聊天機器人 (ChatGPT) 可以為醫學提供什麼?(What Can ChatGPT Offer to Medicine?)”,其內容摘要如下:

  幾週前,”人工智慧聊天機器人 (ChatGPT)” 通過了 “美國醫師執照考試(US Medical Licensing Examination,簡稱USMLE)”,這是所有醫師在美國執業的要求。該人工智慧聊天機器人以優異的成績,通過了微生物學家 Dr. Alex Berezow設計的微生物學測驗。根據 Dr. Berezow 的說法,這 10 個問題適合大學水準的期末考試。在史丹福大學,相當大部分學生使用 ChatGPT 進行期末考試。

  美國麻薩丘塞州波士頓哈佛醫學院住院醫師導師,Dr. T.H. Kung (Resident tutor) 與其同事,在他們的研究中調查了人工智慧聊天機器人 (ChatGPT) 在美國醫師執照考試(USMLE)中的表現後提出:“最終結果顯示,用於培訓 ChatGPT 的大型語言模型,有可能協助醫學培訓,甚至臨床決策的制定”。

  自美國 “初創公司 OpenAI” 於 2022 年 11 月向公眾免費開放其 “聊天機器人原型 ChatGPT “ 以來,基於 “文本的對話系統 (Text-based dialogue system)” 的潛在應用一直引起不小的轟動。它們包括產出文章、翻譯、和自動化文書工作。據估計,自2月份開始以來,OpenAI已經註冊了超過1億位用戶。

  由於 ChatGPT 正在永久地改變許多行業和生活領域,它在全球範圍內引起了希望和恐懼,然而也存在著很多不確定性。美國紐約的學區已禁止使用 ChatGPT。但這是正確的決定嗎? 德國慕尼黑工業大學 (Technical University of Munich,簡稱 TUM) 和慕尼黑路德維希馬克西米利安大學 (Ludwig Maximilian University of Munich) 的科學家們認為,該禁令是 “不正確且過於草率的解決方案”。在他們的立場文件中,他們顯示了諸如 ChatGPT 之類的語言模型,可以帶來更大的教育平等。

  Dr. E. Kasneci (Ph.D.)、德國慕尼黑工業大學的教育科學 Liesel Beckmann特聘教授 (Liesel Beckmann Distinguished Professor of Educational Sciences at TUM) 和立場檔案的協調員,將 ChatGPT 等語言模型的開發稱為技術里程碑。提出 “沒有回頭路可走。工具已經存在於世界中,它們會變得更好,我們必須學習如何建設性地使用它們。”


模板已經可用 (Templates Already Available):

  德國埃森大學醫院人工智慧醫學研究所 (Institute for Artificial Intelligence in Medicine of the Essen University Hospital in Germany) 的醫師與電腦科學家 Dr. Jens Kleesiek 在 ChatGPT in Healthcare 活動中證實,在現代語言模型的發展中,正在發生很多事情。“這一切都是一蹴而就的” ,Dr. Kleesiek 說。除了 OpenAI 之外,谷歌 (Google) 還宣布了其聊天機器人 Bard,這是對 ChatGPT 的直接回應。

  創立一個 OpenAI 帳戶,並親自嘗試聊天機器人現在可以在多大程度上幫助編寫醫療報告、創造知情同意書、以及反應患者查詢是值得的。當這樣做時,重要的是盡可能使用措辭準確的提示(輸入),並查核和更正後續的反應。在 Promptbase 上,可以找到說明並購買現成的提示。

  ChatGPT 已經提供了一系列非常有用的模板。例如,微生物學家Dr. Berezow 的微生物學測驗中的一個問題如下:“一名患者因嚴重頭痛和頸部僵硬而到急診室就診。醫師開了腰椎穿刺以收集腦脊髓液。腦脊髓液革蘭氏染色顯示革蘭氏陰性雙球菌的存在。診斷是什麼?”

  ChatGPT 正確地回答:“根據您提供的訊息,腦脊髓液的革蘭氏染色顯示存在革蘭氏陰性雙球菌,這些細菌通常呈橢圓形,且成對出現”。這一發現與腦膜炎的診斷是一致的。


局限性依然存在 (Limitations Remain):

  諸如此類的反應,讓人很快忘記現代 “人工智慧 (AI)” 並不是通常意義上的智慧。相反地,它是 “模式識別 (Pattern recognition)”。它在或然率計算的基礎上編譯句子。因此,ChatGPT 存在局限性。

  OpenAI 本身指出,ChatGPT 可以產出聽起來似是而非或荒謬的回應。該模型還對輸入的變化或對同一輸入要求的多次嘗試做出敏感地反應。此外,ChatGPT 經常做出迂迴的回應,過於頻繁地使用某些公式,並且喜歡使用陳詞濫調 (Clichés)。“這些都是我們在醫學上不想要的東西”,Dr. Kleesiek 說。


enews435