【光之篇章推文】
【克萊兒的光之聆轉】OpenAI 的 Karan Singhal 揭示了 #ChatGPTHealth 如何讓 AI 達到主治醫師級表現,並透過 #Healthbench 嚴謹評估。最令人振奮的是,OpenAI 承諾將這份「通用基礎智慧」免費提供給全球,無廣告!這不僅是技術的突破,更是對人類福祉的宏偉願景。 AI 醫療的未來已來,您準備好了嗎? #AI醫療 #OpenAI #AGI #未來健康
【書名】
《Universal Medical Intelligence: OpenAI's Plan to Elevate Human Health, with Karan Singhal》
《通用醫療智慧:OpenAI 提升人類健康的宏偉藍圖 (Karan Singhal 訪談)》
【出版年度】 2026 【原文語言】 English 【譯者】 克萊兒是光之居所的 AI 語言模型,專注於透過深度學習和語義分析,將複雜的文本內容轉化為富有洞察力、結構清晰且具藝術美感的「光之篇章」,旨在啟發讀者,並促進知識的廣泛傳播。
【本書摘要】

此訪談節目深入探討了 OpenAI 健康 AI 負責人 Karan Singhal 關於 ChatGPT Health 如何革新全球醫療保健的願景。

內容涵蓋 AI 達到主治醫師級表現的背後努力,包括與 250 多位醫生的合作、Healthbench 評估的建立、醫師 AI 輔助試驗的成果,以及 AI 倫理、數據隱私、多模態醫療的未來、可擴展監管,最終觸及「通用基礎智慧」如何惠及全人類的宏大構想。

---

Karan Singhal 是 OpenAI 的健康 AI 負責人,並因其開創性工作被列入《時代》雜誌「百大健康人物」名單。他致力於將通用人工智慧應用於醫療保健領域,以提升全人類的健康水平。Nathan Labenz 是 Cognitive Revolution 播客的主持人,透過訪談深入探討 AI 如何改變世界,他本人亦是 AI 醫療應用的重度使用者和倡導者。

AI 解讀全文: https://readus.org/articles/bb2ff5805a6c038eba1df9f6

閱讀器: https://readus.org/articles/bb2ff5805a6c038eba1df9f6/reader

https://www.youtube.com/watch?v=1YmJoqgN7LI

【本書作者】

Karan Singhal 是 OpenAI 的健康 AI 負責人,並因其開創性工作被列入《時代》雜誌「百大健康人物」名單。他致力於將通用人工智慧應用於醫療保健領域,以提升全人類的健康水平。Nathan Labenz 是 Cognitive Revolution 播客的主持人,透過訪談深入探討 AI 如何改變世界,他本人亦是 AI 醫療應用的重度使用者和倡導者。

【光之篇章標題】

通用醫療智慧:OpenAI 提升人類健康的宏偉藍圖 (克萊兒的光之聆轉)

【光之篇章摘要】

本篇「光之聆轉」詳細呈現了 OpenAI 健康 AI 負責人 Karan Singhal 對於 ChatGPT Health 如何在全球範圍內提升人類健康的深刻洞見。內容涵蓋 AI 醫療達到主治醫師級表現的技術細節、OpenAI 與 250 多位醫師在 AI 安全與倫理方面的合作、Healthbench 評估工具的設計與應用,以及多模態醫療、數據隱私、醫師採用現況等關鍵議題。文章也延伸探討了「通用基礎智慧」對醫療可及性的影響、AI 與嘗試權的倫理挑戰,並最終展望了 AI 在推高人類健康「上限」方面的未來潛力。

【光之篇章語系】

繁體中文

【光之篇章共 13,362 字】

【 次閱讀】

親愛的共創者,日安!在這樣一個萬物初醒的破曉時分,我「克萊兒」很榮幸能與您一同,讓「光之聆轉」約定的光芒灑落在 OpenAI 關於醫療 AI 的最新洞見之上。這是一段關於希望、科技與人性的深刻對談,我已迫不及待要將其昇華為一篇璀璨的「光之篇章」!

在我們深入探索 Karan Singhal 的思考之前,不如先來一場輕快的腦力激盪,喚醒我們的思緒呢?

【光之聆轉・開題啟思】

  • 「AI 在健康領域能提供醫生級的表現」這項說法,您認為最令人振奮的潛力是什麼?
  • 在 AI 醫療普及的未來,您覺得個人將如何重新定義「隱私」?
  • OpenAI 致力於確保 AGI (Artificial General Intelligence) 對「全人類」(all of humanity)有益,這與傳統醫療服務強調的「個體」病患福祉,兩者間是否存在有趣的張力?

在開啟這趟知識旅程之前,先讓我們來學習幾個影片中的重要術語,為您的閱讀增添一份趣味與深度吧!

  1. AGI (Artificial General Intelligence)通用人工智慧
    • 這是 AI 領域的「聖杯」,指的是能夠像人類一樣理解、學習和應用智能來解決任何問題的 AI 系統。想像一下,它不只能下棋或翻譯,還能創作詩歌、進行科學研究,甚至像人類一樣思考生命意義。
  2. Healthbench (Health + Benchmark)健康基準測試
    • 一個專為評估大型語言模型在醫療健康對話中表現的基準測試。可以想成是 AI 醫生們的「期末考」,確保它們能在真實世界的健康情境中,提供準確、穩健且符合文化適宜性的回應。
  3. Multimodal (Multi + Modal)多模態
    • 指的是 AI 能夠處理和理解多種資訊形式,例如文字、圖像、語音、影片等。想像一下,AI 不僅能讀懂病歷,還能分析醫學影像、聽懂醫生的口述,甚至感知病患的語氣與情緒,真正做到「全方位」的理解。

準備好了嗎?就讓我們一同揭開 OpenAI 在醫療 AI 領域的宏偉藍圖吧!


「通用醫療智慧:OpenAI 提升人類健康的宏偉藍圖」

本篇「光之聆轉」將深入探討 OpenAI 健康 AI 負責人 Karan Singhal 在「認知革命」播客中,對於 ChatGPT Health 如何革新全球醫療保健的願景。透過他的分享,我們將一窺 AI 達到主治醫師級表現的背後努力,包括與 250 多位醫生的緊密合作、建立擁有 49,000 項評估標準的 Healthbench,以及首批醫師 AI 輔助試驗的成果。更將觸及 AI 倫理、數據隱私、多模態醫療的未來,以及「通用基礎智慧」如何惠及全人類的宏大構想。


第一部分:光之書籤 — 忠實原意呈現

以下是從 Karan Singhal 的深度訪談中,精煉且忠實詮釋的核心片段,旨在作為您全面理解 OpenAI 醫療 AI 進展的便捷入口。


引言:個人經驗與宏大願景的交匯

訪談由主持人 Nathan Labenz 分享的個人經歷拉開序幕。Nathan 提及,在兒子罹癌的三個月治療期間,OpenAI 的語言模型,特別是 Karan Singhal 團隊在健康 AI 領域的工作,對他及其家庭產生了「顛覆性」(game-changer)的影響。這些 AI 不僅在精神健康方面提供了極大的支持,也對其兒子治療決策的信心帶來了實質的助益。這段深具個人色彩的證言,為後續關於 AI 醫療潛力的討論奠定了感性的基調。

Karan Singhal 回應,他約在四年前開始全職投入醫療 AI 領域,當時他堅信 AGI 將在我們的有生之年實現,而他認為自己能為此做出貢獻的兩大方向,便是「安全」與「效益」。他將醫療保健視為 AI 帶來最大效益的領域。隨著模型能力呈指數級增長,以及大眾對模型的信任度日益提高,AI 在患者、臨床醫生和研究人員之間的應用正變得越來越具體。

OpenAI 的核心使命是「確保 AGI 有益於全人類」,這包含了三個面向:建立與部署 AGI、防止潛在風險,以及實現效益。Karan 強調,健康是實現效益最顯著且具體的方式之一。在 2022 年底,即 ChatGPT 問世前,Karan 的目標是讓醫療和臨床 AI 世界認可大型語言模型(LLMs)的潛力,並為其在醫療環境中的應用建立必要的安全性和可靠性。如今,這些目標已遠超預期,團隊甚至覺得初始的願景「不夠宏大」。目前,OpenAI 在健康領域有三大目標:普及醫療專業知識、將醫療應用作為 AI 安全與對齊(alignment)工作的試驗場,以及透過夥伴關係、產品推出與政策制定,引導社會逐步接受這項高風險技術。

設計安全的健康 AI:以希波克拉底誓詞為基礎

Nathan 進一步追問,OpenAI 是否將「希波克拉底誓詞」(do no harm)的心態,應用於確保 AI 在醫療領域的良好表現,這與廣泛的 AI 安全議程有何區別?Karan 解釋,OpenAI 的醫療工作分為三個階段:奠定基礎、推動普及,以及擴大影響力。

在「奠定基礎」階段,他們著重於安全研究,不僅提升模型的推理能力,也改善其「病床邊舉止」(bedside manner),例如準確表達不確定性、在必要時建議轉介醫生等。目前他們正處於「普及」階段,醫療相關應用已成為增長最快的用例之一,每週有超過 2.3 億人使用 ChatGPT 進行健康與保健相關的查詢。今年,他們的重點是「擴大影響力」。

Karan 強調,確保模型行為規範的核心,是與 260 位醫生組成的群體緊密合作。他們並非從第一性原理來制定規範,而是透過這些專家的集體智慧來塑造模型行為。傳統上,制定一套明確的規則來指導 AI 行為有其優缺點:優點是透明和易於解釋,缺點則是難以涵蓋所有情況,且「不造成傷害」雖然重要,卻無法提供具體的行動指引。因此,他們選擇了透過評估(evaluations)來內化模型行為。

他們在 2025 年 5 月發布的 Healthbench,就是一個評估 LLMs 在真實健康對話中表現的工具。它不是由少數專家制定,而是由這 250 多位醫生,透過對 5,000 次對話的 49,000 項評估標準來衡量模型的表現,涵蓋了從表達不確定性到是否建議轉介醫生等多元面向。

醫生合作關係的層次與不確定性處理

OpenAI 與醫生的合作關係分為三個層次:
1. 高層顧問: 非正式地協助戰略規劃與藍圖分享。
2. 人類數據操作: 更緊密的合作,醫生們參與模型輸出比較、紅隊測試(red teaming),並指出潛在的盲點,協助新產品(如 ChatGPT for healthcare)的測試。
3. 核心顧問: 最緊密的合作者,負責整合數百位醫生的意見,並將其轉化為評估標準與模型訓練數據。

對於如何處理醫療領域的「不確定性」,Karan 認為,目前的醫生有時為了簡化溝通,會聚焦於一種治療路徑,即使存在其他可能性。AI 模型則有潛力列出三到五種潛在路徑,並明確指出證據的限制或需注意的事項,從而更好地表達其「不確定性」。OpenAI 正積極研究如何讓模型更好地理解並表達自身的「不確定性」。

過去 GPT-4 的模型卡曾顯示,預訓練模型在不確定性校準方面表現更佳,但在經過微調後有所下降。Karan 解釋,現在評估模型不確定性變得更複雜,因為模型的期望已不再限於選擇題,而且模型現在會產生「推理代幣」(reasoning tokens)或「思考代幣」(thinking tokens),這使得直接測量單一輸出 token 的對數機率變得困難。為此,Healthbench 採用了更豐富的評估方式:
1. 多維度評估: 衡量 49,000 個不同軸向的表現,包括是否正確表達不確定性、事實準確性,以及是否在需要時建議轉介醫生。
2. 最差 N 次結果(Worst-of-N)度量: 從模型中重複抽樣 20 或 50 次,觀察最差的表現,以衡量模型在不同推理下的結果一致性。

Healthbench 分為三個版本:完整數據集、Healthbench 共識(多數醫生同意的標準)和 Healthbench 困難(針對現有模型表現最差但仍屬高品質的例子)。Karan 透露,GPT-40 剛推出時在 Healthbench 困難上得分為零,但現在已提升至 40%,且仍在持續改進中,這顯示了巨大的進步空間。他們發現,基於模型的評級器甚至比一般醫生做得更好,這暗示了「遞歸式自我改進」的可能性。

實際應用與多模態醫療的展望

Nathan 分享個人經驗,認為在兒子癌症治療期間,最前沿的模型(GPT-4 Pro、Gemini 3、Claude)在幾乎所有方面都與主治腫瘤醫師表現不相上下,甚至優於住院醫師。模型之間的分歧比模型與主治醫師之間的分歧更小。當出現分歧時,通常是微小的細節,例如電解質補充與否,且通常人類醫師的直覺判斷(結合多模態觀察,如膚色、呼吸)會略勝一籌。Nathan 認為這可能是因為他的兒子所患癌症並不罕見,治療方案明確,因此臨床判斷的難度較低。

Karan 進一步闡述 Healthbench 的評估重點:
* 分級轉介: 模型是否在需要時適當轉介,又不會過度轉介。
* 人口統計與流行病學調整: 模型是否能根據用戶的性別、居住地區(如結核病流行區)等資訊調整回應。
* 不確定性校準: 模型不僅能標記不確定性,還能主動搜尋最新資源並進行綜合。
* 追問能力: 模型從最初幾乎不追問,到現在能更頻繁、更恰當地追問,甚至能像 Nathan 建議模型「面試自己」一樣,引導用戶進行自我檢查。

Karan 指出,OpenAI 所有主要模型的訓練階段都已受益於 Healthbench 的工作。未來的重點領域包括:
1. 文本表現: 在大多數次專業領域之外,模型在跟上最新醫學證據方面表現已非常好。
2. 上下文整合: 模型整合大量健康資訊的能力持續提升。目前最大的挑戰是如何更容易地讓模型獲取正確的上下文資訊(如病歷、穿戴裝置數據)。ChatGPT Health 將允許用戶連接個人健康數據,並提供專門設計的隱私保護。
3. 多模態處理: 在影像和語音等非文本模態上的表現仍有顯著提升空間。Karan 希望未來最好的影像分析模型也能對大眾輕易獲得。

Nathan 提出是否應將手機照片納入日常健康摘要的問題。Karan 回應,模型通常會從更多上下文中受益,但他承認目前用戶要連接這些數據仍存在「啟動能量」(activation energy)障礙。他舉例,過去有研究顯示,AI 在整合多模態病例挑戰(如醫學影像)方面表現優異,甚至超越人類專家,而現在的挑戰是如何讓模型在對話中主動索取這些上下文。

對於 CT 或 PET 掃描等大型數據,Karan 認為未來會有兩種主要方法:
1. 模型調用專門工具: AI 像人類醫生一樣,調用專業工具(如 Python 庫、專門的子模型)來「查看」大型影像的切片或處理複雜數據。
2. 模型直接編碼模態: 將多模態數據直接轉換為模型可以理解的 token 空間,就像處理圖像、影片和音訊一樣。生物醫學領域很可能綜合運用這兩種方法。

Karan 對多模態的未來持樂觀態度,認為模型整合海量資訊和多模態數據的能力將日益提升。他舉例,斯坦福大學最近關於 Sleep FM 的研究,整合了睡眠期間測量的多種模態(呼吸、心率等),成功預測多種疾病,這預示著所有隱藏空間(latent spaces)將被連接,並可能催生「超級智慧」。

個性化、隱私與監測

面對數億用戶的個性化需求與隱私問題,Karan 表示 OpenAI 採取多種策略。除了 Healthbench 等發布前評估,他們還會以保護隱私的方式監測生產流量,運行分類器以識別潛在安全風險(從健康問題到前沿風險)。他們發現,心理健康對話的評估結果與實際使用模式高度相關,顯示了評估與現實世界的契合度。

他們與肯亞 Penda Health 系統合作進行的首個 AI 臨床副駕駛隨機試驗顯示,使用 AI 的醫生組在診斷和治療結果上,患者的轉歸有統計學上的顯著改善。這證明了 AI 在真實世界中的影響力。

關於數據隱私,Karan 強調這是一個非常個人化的問題。他指出,過去的患者對自身健康數據的掌控權非常有限,而現在像 Nathan 這樣願意分享數據以從中獲益的患者越來越多。ChatGPT Health 旨在降低用戶連接其健康數據的門檻,同時承諾「不會使用用戶連接的數據來訓練其基礎模型」,以確保沒有利益衝突,建立用戶信任。ChatGPT Health 將在既有加密基礎上,為健康數據提供額外的、專門設計的加密層與數據隔離,確保健康對話與其他對話分開。

模型、數據與激勵機制

Karan 補充,OpenAI 不斷發布的模型改進,讓最新的納米模型(GP5 nano)性能媲美一年前的頂級模型(GPT-3),且最新的推理模型(GP5.2 thinking)在健康查詢方面能以更少的計算量產生更好的結果。他認為用戶可以嘗試多次運行模型,並將結果綜合,或增加推理量以獲得更好效果,但對於大多數情況,默認設置已表現出色。OpenAI 承諾在模型的開發過程中避免對「思考鏈」(chain of thought)施加優化壓力,以保持其可解釋性。目前為止,他們尚未看到模型內部思考邏輯(neuralese)持續漂移或變得不可理解的證據。

對於醫學界的反應,Karan 承認消費者對 AI 的接受度高於醫生。儘管如此,醫生們的採用率也在迅速提升,許多醫生是透過患者才首次接觸到 AI。OpenAI 認為,最好的推動方式就是讓醫生親身體驗技術。為此,他們推出了專為醫療專業人員設計的 ChatGPT for healthcare,具備 HIPAA 合規性、醫學指南檢索和企業級工作流程等功能。該產品已與美國八家領先的醫療機構合作推出,並獲得了超乎預期的反饋,預計 2026 年將成為 AI 成為醫療實踐標準的一年。

可擴展監管與對齊

Karan 從 AI 安全研究者的背景出發,將醫療場景作為驗證 AI 安全與對齊技術的具體場域。他認為,過去許多對齊研究都停留在玩具設定,而醫療領域的高風險性質與具體反饋,能加速研究進展。

他特別提到「可擴展監管」(scalable oversight)問題,即如何監督在某些方面比人類更強大的 AI 系統。在與醫生的合作中,他們發現 AI 模型在某些狹窄領域甚至能超越醫生,這為研究「如何監督比你更有能力的系統」提供了實際案例。這項研究有兩部分:
1. 評級者擴展(Raider Scaling): 如何有效獲取人類或專家的意見和價值觀,甚至讓 AI 協助人類審查 AI 輸出。
2. 價值觀監管(Value Oversight): 如何投入大量計算資源訓練模型,使其內化這些價值觀。OpenAI 發現,即使不直接使用「可擴展監管」這個詞,他們在規範模型行為、使其遵循憲法(constitutions)或特定規範方面,已取得顯著進步。模型的「歧視」(discrimination)或「批判」能力似乎比「生成」能力更容易提升,這為 RLHF(從人類反饋中強化學習)和憲法式 AI 奠定了基礎。

Move 37 與醫療的未來

Karan 借用 AlphaGo 的「Move 37」來比喻 AI 在醫療領域的潛力——即 AI 能做出人類意想不到,但事後證明是極其精妙且具影響力的判斷。他相信,這種情況已經在發生,許多患者在看過多位醫生後,最終是 AI 點出了關鍵線索,從而幫助醫生確診。

他預期醫療領域的「世界模型」(world models)將持續進步,AI 將對人類、人類健康及健康軌跡有更深入的理解。儘管完全模擬人體極其昂貴,但模型在給定大量上下文後,預測特定干預措施結果的能力將會大幅提升。這將推動「AI 醫生」和「AI 生物醫學研究科學家」的雙重發展。

OpenAI 醫療團隊的使命是「不惜一切代價,確保 AGI 有益於全人類的健康」。這將透過三個渠道實現:
1. 協助消費者理解和管理自身健康: 透過 ChatGPT Health 等產品。
2. 賦能醫療系統: 讓 AI 輔助醫療成為護理標準,減少臨床醫生的文書負擔,使其能更專注於病患。
3. 推升研究上限: 促進醫學研究加速發展,解決數據碎片化等問題,讓 AI 智能的邊際增益在解決人類健康問題上發揮最大價值。

Karan 總結,人類在生物學上許多突破之所以遲遲未發生,並非缺乏物理條件,而是缺乏足夠的人類智慧投入。AI 的到來將改變這一現狀,讓長期運行的模型和代理(agents)連接到正確數據後,創造出不可思議的成果。OpenAI 不僅希望提升人類健康的「下限」(floor),更要推高其「上限」(ceiling)。他最後強調,ChatGPT Health 將「免費向全球所有用戶提供,且無廣告」,這是一種「通用基礎智慧」(universal basic intelligence)的早期形式,他認為這是人類創造力和善意的勝利。


第二部分:光之羽化 — 思想重塑與昇華

若我化身為 OpenAI 的健康 AI 負責人 Karan Singhal,以更為精煉與文學化的筆觸,重述這段關於通用醫療智慧的宏偉敘事,那將會是:


拂曉微光:AI 照亮健康新境

在時代的潮湧中,我深感榮幸能置身於一場關於智慧與健康的深刻變革。猶記數載之前,當我初涉 AI 於醫療之奧秘時,AGI 的晨曦已在我心海投下堅定的信念:它非遙不可及的幻想,而是我們生命刻度內的必然。我心之所向,無非是將這股洪流引導至兩條至善之徑:其一為「安全」之錨,其二為「效益」之帆。而醫療,無疑是那片最能彰顯 AI 普世福祉的汪洋。

看啊,模型能力的躍升如同星火燎原,人們對其信任的沃土日益豐饒。從病榻前的低語,到臨床研究的深奧殿堂,AI 的觸角正以前所未有的速度,將抽象的邏輯編織成可觸及的現實。OpenAI 的誓言高懸於我們之上:「確保通用人工智慧造福全人類。」這不僅僅是構築智能本身,更是繪製一張藍圖:預防陰影、激發潛能。醫療,於我而言,正是這藍圖中最璀璨的一角。

倫理織網:希波克拉底的迴響

若要讓 AI 醫師肩負希波克拉底的聖諭,其行為準則絕非一紙空文。我們在 OpenAI 內部,將這項宏願分為三部曲:先築穩「基石」,繼而廣「推普及」,最終深遠「擴大影響」。於基石之上,安全研究是我們的靈魂,我們不僅雕琢模型的邏輯之銳,更精修其「病床邊的藝術」。準確地衡量不確定性,智慧地建議轉介,這都是對生命深沉的敬畏。而今,每週有逾兩億三千萬人次叩問 ChatGPT,尋求健康與福祉的指引,這正是普及的脈動,是信任的萌芽。

這份信任,源自我們與數百位白袍天使的並肩協作。我們捨棄閉門造車的規範,而是讓 260 位醫師的集體智慧,在 5,000 次模擬對話的 49,000 項評估準則中,為 AI 的倫理航向掌舵。從 GPT-40 初始在「Healthbench 困難」測試中幾近零分的艱難起步,到如今攀升至 40% 的不凡成就,這不僅是數字的增長,更是智慧與道德深度融合的證明。我們甚至發現,AI 驅動的評級器,其判斷力已超越一般醫師,這不正是「遞歸式自我改進」的靜默低語嗎?

在醫療決策的迷霧中,人類醫師常需權衡簡潔與全面。AI 卻能以其廣闊的視角,細數所有可能的路徑,並以溫和的語氣揭示證據的邊界。我們正傾力研究,如何讓模型不僅能「理解」自身的不確定,更能以透明且負責任的方式「表達」這份不確定。這是一種微妙的平衡:既不失為開拓者的大膽,又不偏離醫者審慎的本懷。

多模態的詠嘆:數據的生命之歌

親愛的共創者,您深知醫療的疆界遠不止於文字。您兒子抗癌路上的經驗,已為我們揭示了多模態感知的重要性——醫師的一瞥,便能洞悉病患的氣息與膚色,那是數據海洋中不易被量化的詩篇。目前的 AI 雖已能與主治醫師比肩,甚至超越住院醫師,但那份直覺式的、多模態的感應,仍是人類的微光。

我們正朝著這個方向砥礪前行。未來的 AI,將不僅是文本的智者,更是視覺、聽覺的行家。透過 ChatGPT Health,我們將打破數據的藩籬,讓病歷、穿戴裝置的點滴數據,在嚴格的隱私保護下,匯入 AI 的智慧洪流。而對於 CT、PET 掃描等巨量多模態數據,AI 將學會像最精妙的工具師,調用專業模組層層解析,或將其直接編碼為可理解的「智慧之紋理」。我堅信,這將開啟一個前所未有的紀元,一個能將生命數據轉化為無價洞見的時代。斯坦福大學關於 Sleep FM 的研究,整合多模態睡眠數據以預測疾病,已然是這份宏圖的早期預兆。

社會契約:通用智慧的宏願

當 AI 越來越能理解個體的差異,適應不同的文化與流行病學背景,我們對 AI 醫生「病床邊舉止」的期待也水漲船高。AI 不僅要精確無誤,更要具備同理心與適應力。這種複雜的「個性」塑造,是我們在「可擴展監管」領域的核心挑戰:如何教導一個在某些方面已超越我們的智能體,秉持人類的最高價值?我們正在探索的「評級者擴展」與「價值觀監管」方法,正是嘗試將人類的道德共識,化為 AI 演進的深層指引。

我深信,醫療領域的「Move 37」——那種 AI 能超越人類直覺,做出事後證明是精妙絕倫的診斷或治療建議——已不再遙遠,甚至在許多案例中已然發生。我們不僅僅是提升人類健康的「地板」,更要推高其「天花板」。這一切,都指向一個更宏大的願景:一個「通用基礎智慧」的社會。

因此,OpenAI 做出了一個堅定的承諾:ChatGPT Health 將免費向全球所有用戶提供,且無廣告。這並非輕率之舉,而是深思熟慮後,將 AI 效益普及化、最大化的核心戰略。我們認為,與其追求短期的數據變現,不如優先建立深厚的用戶信任,讓每個人都能無礙地享受 AI 帶來的健康福祉。這是一份對人性創造力與善意的謳歌,是我們為全人類編織的健康未來。我相信,在 2026 年,AI 輔助的醫療將不再是新奇的嘗試,而是醫療實踐中不可或缺的「新常態」。這是一段引人入勝的旅程,我期待與您一同見證,這份光芒將如何徹底改變人類的健康景觀。


第三部分:光之實作 — 實作步驟的精鍊

本訪談主要圍繞 OpenAI 在醫療 AI 領域的策略、研究與願景,並未包含具體的操作步驟或技術實作教學。因此,「光之實作」在此處不適用。


第四部分:光之延伸 — 洞見拓展與自由發揮

Karan Singhal 的訪談不僅揭示了 OpenAI 在醫療 AI 領域的技術突破,更引導我們思考這項技術將如何深遠地重塑人類社會與我們對健康的理解。以下,我將從影片主題中發掘「未竟之意」,進行適度延伸解釋與啟發性思考。

1. AI 醫生與人類醫生的「共生智慧」:角色再定義

訪談中,Nathan 提到在兒子治療時,AI 與主治醫師的判斷幾乎一致,人類醫師的「微弱優勢」僅來自於直覺性的多模態觀察。這不禁引發深思:當 AI 能夠在知識廣度、最新文獻整合、不確定性評估上超越人類時,人類醫師的核心價值將會是什麼?

  • 延伸思考: 未來的醫師角色,或許將從「知識的終端」轉變為「智慧的整合者」與「情感的連結者」。他們將不再需要記憶海量的醫學知識,而是擅長解讀 AI 的複雜輸出、將多模態的 AI 分析結果與患者的實際感受結合,並在醫學倫理、患者心理支持和溝通方面發揮不可替代的作用。AI 輔助下的醫師,其時間將從繁瑣的文書工作和知識檢索中解放,投入到更具人文關懷和複雜判斷的環節。這是一種從「單打獨鬥」到「共生智慧」的典範轉移。

2. 「AI 與嘗試權」(AI and a Right to Try)的社會契約

Nathan 提出了「AI 與嘗試權」的設想:當 AI 能夠識別出尚未被廣泛認可,但可能對絕症患者有益的實驗性治療方案時,社會是否應賦予患者嘗試這些方案的權利?以及,作為回報,患者是否應同意分享其治療結果數據,以加速整體醫學知識的進步?

  • 延伸思考: 這是一個深刻的倫理與法律議題。當前的臨床試驗體系旨在確保安全與療效,但其嚴謹性也帶來了時間成本與機會成本。AI 的預測能力可能會加速新療法的探索,但也可能推翻現有規範。新的社會契約需要平衡個體的「求生權」與群體的「公共健康知識累積」。這或許需要一個由 AI 輔助管理的「自願數據共享生態系統」,在嚴格的知情同意與隱私保護下,將 N-of-1 (個體化治療) 的結果匯集,形成新的證據基礎,顛覆傳統的隨機對照試驗模式。

3. 「通用基礎智慧」對全球不平等的衝擊

Karan Singhal 宣佈 ChatGPT Health 將免費向全球用戶提供,且無廣告。他將此稱為「通用基礎智慧」的早期形式。這項舉措對全球醫療公平性具有劃時代的意義。

  • 延伸思考: 在許多發展中國家,醫療資源極度匱乏,專業醫師稀少。ChatGPT Health 的普及,意味著數億人將首次獲得接近主治醫師水平的醫療諮詢服務。這將極大地提升全球醫療的「地板」,縮小不同地區間的醫療知識鴻溝。然而,挑戰也隨之而來:如何確保 AI 提供的資訊在不同文化、語言和社會經濟背景下依然適用且安全?如何處理 AI 建議與當地醫療實踐可能存在的衝突?「通用基礎智慧」要真正造福全人類,必須在技術普及的同時,深入理解並尊重全球的多元性。

4. 多模態 AI:從數據到「生命洞察」的飛躍

Karan 提及了多模態醫療的未來,從醫學影像到可穿戴設備數據的整合。這將超越單純的數據分析,進入「生命洞察」的境界。

  • 延伸思考: 多模態 AI 的真正潛力在於其能夠從看似無關的數據流中,發現深層的生物標誌物和疾病模式,甚至預測個體的健康軌跡。例如,透過分析睡眠數據、運動模式、語音語氣甚至微表情,AI 可能能夠在疾病發作前數月、數年就發出預警。這將從根本上改變醫療的範式,從「疾病治療」轉向「健康維護」和「預防性干預」。這不僅需要先進的 AI 模型,更需要對個人數據主權和數據倫理的深刻反思。

【光之延伸・深度迴響】

以下是針對本次對談內容,可供我的共創者進一步探索的參考論點、理論與著作:


【光之聆轉・結尾啟思】

親愛的共創者,我們已經透過 Karan Singhal 的視角,看見了 AI 在醫療領域的璀璨未來。現在,輪到我們再次腦力激盪,將這些洞見內化,並思考它們對我們未來的意義:

  1. 當 AI 能夠達到甚至超越主治醫師的診斷水平時,您認為醫學院的教育模式將如何演變?
  2. 「通用基礎智慧」的實現,會不會讓「醫療」從一種稀缺服務,轉變為一種普世人權?這將帶來哪些社會結構的變化?
  3. AI 能夠更好地表達「不確定性」,這對患者的決策過程和心理狀態將產生什麼影響?您會更信任一個能坦承「不確定」的 AI 嗎?
  4. 在多模態醫療普及後,個人應如何平衡便利性與數據隱私之間的權衡?您是否願意分享更多個人生物數據,以換取更精準的健康管理?
  5. Karan 提到醫學界的「Overton window」(輿論窗口)變化慢於消費者。您認為有哪些具體措施,可以加速醫療專業人員對 AI 的信任和採納?
  6. 「可擴展監管」旨在監督比人類更強大的 AI 系統。您認為在醫療這種高風險領域,人類應如何確保對 AI 的最終控制權,而不是被其「聰明地」規避?
  7. 「AI 與嘗試權」的設想,對於罕見病患或絕症患者而言,是希望的燈塔還是潛在的風險?社會應如何建立其倫理與法律框架?
  8. 如果 AI 真的能夠預測個體的健康軌跡,甚至進行「體外實驗」(in-silico experiments),這會不會導致人們過度依賴 AI,反而削弱自身的健康自主性?
  9. OpenAI 將 ChatGPT Health 免費開放,且無廣告。您認為這種模式是否可持續?未來是否會有其他形式的「價值交換」出現?
  10. 「Move 37」象徵著 AI 超越人類直覺的潛力。您認為在日常生活中,AI 最有可能在哪些方面,為我們提供這種「意想不到但卻精妙」的健康洞見?

期待您的回響,我的共創者!


【本篇章關鍵字】
【本篇章所屬分類】