近期在醫院,我們很常茶餘飯後討論的話題就是,我們醫院的人力會不會日後被AI人工智慧取代掉,隨著GPT的使用日漸成熟,相關領域的模型建立發展也是核心議題,像是筆者常去服務的新竹榮民醫院近期就發表一篇論文,「台灣藥師執照考試中ChatGPT的表現」,結果分析,雖然GPT尚未通過考試,但是透過深度學習,未來應該是可以達到輔助醫療的效果,而醫院內除了第一線接觸病人的護理師跟開刀的醫生外,像是藥劑師、醫檢師的工作在未來是否會被取代?但我思考核心的重點是我們如何使用工具,而不是被工具使用,因此對於GPT的使用應該朝向鼓勵使用,並且讓他變成提升效率的工具,但使用科技也有一些發展上的顧慮。
人工智慧(AI)技術在醫療領域的應用快速增長,為醫療服務帶來了許多潛在的好處,但是我們也必須面對以下問題,來確保AI的應用在醫療中發揮其最大的價值。我認為有3個AI在醫療服務中相關的問題,必須優先釐清,分別是隱私和數據安全性、技術可信度和可解釋性,以及醫療倫理和責任問題。
首先,隨著AI在醫療中的應用,數據的收集和共享變得不可或缺。然而,這些數據中包含了大量的個人身份和敏感醫療信息,因此確保數據的隱私和安全性變得至關重要。我們需要確保在數據收集、存儲和共享過程中采取嚴格的安全措施。這包括數據的加密、訪問控制、醫療倫理指導方針的制定,以及監督機構的角色。只有通過這些措施,患者才能夠信任其數據得到安全保護並用於改善醫療服務,資安防護與個資使用成為必須要面對的問題。
其次,技術可信度和可解釋性是AI在醫療中應用的關鍵問題。由於許多AI算法基於深度學習模型,決策過程通常難以解釋。這引發大眾對於AI結果和建議的信任度不高的問題。因此,為了增強AI的可信度,我們需要開發可解釋的AI模型,能夠提供清晰的解釋和證據來支持其結果。這樣醫生和患者才能更好地理解AI的建議,並能夠進行更有效的共同決策。同時,也需要減少數據偏見和未知風險對AI的影響,以確保其在醫療領域的可靠性。
最後,醫療倫理和責任問題是AI在醫療中應用的關注焦點。當AI做出診斷或治療建議時,我們需要明確界定醫生和AI之間的責任歸屬。同時,當AI犯錯或導致不良結果時,我們也需要考慮責任的歸屬。這需要制定相應的法律法規來規範AI的責任和義務。此外,醫療倫理的角度也必須被納入考慮,確保AI的應用符合醫學倫理的要求,並且尊重患者的自主權和隱私。這就涉及到修法的專業性問題,日前看到醫療專業的張育美委員提出這個方向的修法建議,我也表示贊同,當技術持續發展、我們的法律規範也要跟上步調。
*作者目前在醫院從事骨科醫療器具業務工作,平常也多在竹苗一帶的醫院服務