;

BACP: 我們呼籲在心理健康領域製定更清晰的人工智慧監管規則

發布時間: 2026-03-01 14:54



我們呼籲在心理健康領域製定更清晰的人工智慧監管規則



BACP消息


我們在回應MHRA諮詢時強調了對透明度、問責制和公眾保護的需求。


我們呼籲對英國醫療保健領域的人工智慧(AI)監管框架進行重大改革,並警告稱現行安排未能提供足够的清晰度或保障措施,尤其是在心理健康領域。


這一呼籲是在我們對藥品和健康產品管理局(MHRA)《醫療保健領域人工智能監管》諮詢的回應中提出的。 我們在回應中強調,雖然人工智慧有潜力支持創新,但信任、安全和專業問責必須放在首位。


我們指出:

“人工智慧正迅速被引入醫療保健領域,但監管尚未跟上這些工具使用管道的複雜性。清晰且可信的監管對於保護服務使用者和專業人員至關重要。”


定義人工智慧是首要任務


我們還強調,該諮詢檔案未能提供人工智慧的明確定義,這使得難以確定哪些科技屬於監管範圍。

我們認為,明確醫療保健領域人工智慧的構成至關重要,需區分用於臨床護理的工具、行政任務的工具,以及供公眾在正式醫療保健體系之外使用的工具。


缺乏這種清晰度,服務委託方和專業人員就無法確信哪些工具是安全或受監管的。


治療師日益增長的擔憂


我們的“心理氣壓計”調查最新結果說明了為何迫切需要改革與清晰度:

- 64%的治療師報告稱,過去一年公眾心理健康狀況有所下降,其中43%的人認為人工智慧科技是促成因素之一。

- 28%的治療師注意到客戶從ChatGPT等人工智慧工具那裡獲得了無益的建議。

-在從事兒童與青少年工作的治療師中,38%觀察到兒童向人工智慧聊天機器人尋求心理健康指導的現象有所增加,而19%報告了兒童收到有害建議的案例。


這些發現支持了我們的呼籲:需要為專業人士和公眾提供清晰易懂的資訊,告知哪些人工智慧心理健康工具是安全、有證據支持且受監管的。


我們的政策與公共事務負責人馬丁·貝爾表示:“人們越來越傾向於向人工智慧尋求心理支持,這是可以理解的,因為它全天候可用、感覺不帶評判,並提供一種私密感。然而,人工智慧不受道德或保密標準的約束,且現時缺乏有效的監管和問責機制。”


“雖然這類工具可以提供支援,但它們永遠無法複製或取代治療中的人際溫度。人際聯結、真誠、共情和compassion是成功治療的覈心——這些是只有受過訓練的治療師才能提供的品質。 "


我們的關鍵建議

-透明度:明確哪些人工智慧工具受到監管以及它們如何做出決策。

-共同問責與責任:清晰界定開發者、醫療機構和臨床醫生之間的責任。

-持續培訓與能力建設:幫助醫療專業人員理解人工智慧的優勢、局限和風險。

-强有力的上市後監督:包括監測不良事件,並隨著人工智慧科技的發展調整監管。






英國心理治療和諮詢協會bacp logo.png