WHO:保護人類福祉!在公共健康領域慎用AI

2023-05-18 18:40:14    編輯: robot
導讀 AI浪潮一波又一波,在科技圈攪動風雲之後,下一個目標很可能就是醫療衛生領域。 在關乎人類生命健康的領域裏,對新技術的觀點一直是謹慎樂觀。對AI這種凸顯不確定性的科技,更是如此。 當地時間16日,世界...

AI浪潮一波又一波,在科技圈攪動風雲之後,下一個目標很可能就是醫療衛生領域。

在關乎人類生命健康的領域裏,對新技術的觀點一直是謹慎樂觀。對AI這種凸顯不確定性的科技,更是如此。

當地時間16日,世界衛生組織(WHO)發聲明呼籲謹慎使用人工智能(AI)生成的大型語言模型工具(LLM),以保護和促進人類的福祉、安全和自主性,並維護公共健康。

此類大型語言模型工具包括ChatGPT等許多其他模仿理解、處理和產生人類交流的平台,它們在公衆中傳播迅速,並越來越多地用於滿足人們的健康需求,在健康方面的應用充滿了潛力。

可能存在風險

WHO表示,在利用大型語言模型工具來改善健康信息獲取、作爲決策支持工具,甚至增強在資源匱乏環境中的診斷能力以保護人們的健康和減少不平等時,必須仔細審查其可能存在的風險。雖然WHO支持適當使用技術,包括AI大型語言模型工具,來支持醫護人員、患者、研究人員和科學家,但對這種新技術持謹慎態度。

WHO表示,其倡導幾大核心價值,包括需要廣泛遵守透明度、包容性、公衆參與、專家監督和嚴格評估等,而操之過急地採用未經測試的系統可能會導致醫護人員的錯誤操作,對患者造成傷害,削弱對人工智能的信任,從而破壞或延遲此類技術在全球範圍內的潛在長期效益與應用。

爲了以安全、有效和合乎道德的方式來使用的技術,並進行嚴格監督,WHO提出了以下領域的疑慮,包括:用於訓練AI的數據可能存在偏差,產生誤導性或不准確的信息,可能對健康、公平和包容性構成風險;大型語言模型生成的回答對終端用戶或許顯得權威而可信,但這些回答可能是完全錯誤的,或者包含嚴重錯誤的信息,尤其是涉及健康的回答;大型語言模型可能在未經事先同意使用的數據上進行培訓,並且可能不會保護用戶提供的敏感數據(包括健康數據);大型語言模型可能被濫用,以文本、音頻或視頻內容的形式產生和傳播看似極具說服力的虛假信息,公衆會很難將其與可靠的健康內容區分开來;與致力於將該工具商業化的技術公司不同,WHO致力於利用新技術,包括人工智能和數字健康,以改善人類健康,同時建議決策者確保患者安全和保護。

WHO並表示,建議在廣泛應用於日常醫療和藥物治療之前,應解決這些問題,並對其效益進行清晰的評估,無論是由個人、醫護人員還是衛生系統管理者和決策者使用。

WHO並重申,在設計、开發和部署醫療AI時,應遵守該組織《醫療衛生中AI的倫理與治理指南》列舉的倫理原則和適當的治理措施。

該指南中確定的六項核心原則是:(1)保護自治權;(2)促進人類福祉、人類安全和公共利益;(3)確保透明度、可解釋性和可理解性;(4)促進責任和問責;(5)確保包容性和公平性;(6)促進具有響應能力和可持續性的AI。

WHO該項聲明發布後,陸續多家機構宣布暫不考慮將AI技術納入到醫療技術研發當中。



標題:WHO:保護人類福祉!在公共健康領域慎用AI

地址:https://www.utechfun.com/post/214195.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡