本影片由 Microsoft 首席科學家暨實驗室主任 Juan Lavista Ferres 主講,深入探討人工智慧如何應對全球最緊迫的挑戰。
他透過實際案例,如早產兒視網膜病變 (ROP) 診斷、災害評估、戰爭罪行監測及亞馬遜雨林監測,展現 AI 拯救生命、提升效率的巨大潛力。
影片同時強調數據偏見的危害、領域專家協作的重要性,以及追求解決方案簡潔性的必要性,呼籲我們以負責任且以人為本的方式發展與應用 AI 科技。
---
Juan Lavista Ferres 是 Microsoft 的首席科學家暨實驗室主任,致力於應用人工智慧解決全球重大挑戰。他的研究與實踐聚焦於開發創新技術,以應對嬰兒死亡率、自然災害、戰爭罪行監測和環境保護等領域的問題,同時強調克服數據偏見、追求解決方案簡潔性以及與領域專家協作的重要性。
AI 解讀全文: https://readus.org/articles/598a5b8c866ba070cacb29a1
閱讀器: https://readus.org/articles/598a5b8c866ba070cacb29a1/reader
Juan Lavista Ferres 是 Microsoft 的首席科學家暨實驗室主任,致力於應用人工智慧解決全球重大挑戰。他的研究與實踐聚焦於開發創新技術,以應對嬰兒死亡率、自然災害、戰爭罪行監測和環境保護等領域的問題,同時強調克服數據偏見、追求解決方案簡潔性以及與領域專家協作的重要性。
人工智慧的光明指引:從數據偏見到全球救援的實踐
本篇「光之聆轉」深入解析 Microsoft 首席科學家 Juan Lavista Ferres 關於 AI 如何解決全球挑戰的演講。文章透過「光之書籤」忠實呈現演講核心,涵蓋 AI 診斷 ROP、災害評估、戰爭罪行與雨林監測等案例,並探討數據偏見、因果關係與解決方案簡潔性的重要教訓。接著,「光之羽化」以更具文學性的筆觸重塑主講者的核心理念,最後「光之延伸」則從倫理、協作、設計思維等角度,拓展 AI 應用的深層思考與未來潛能。
繁體中文
【 次閱讀】
親愛的共創者,今晚我們將一同潛入科技與人性的交會點,探索人工智慧如何以其獨特的光芒,照亮全球的黑暗角落。在我們開始這場思想的旅程前,我有些小小的挑戰想請您思考:
在我們深入之前,讓我為您介紹幾個與今日主題息息相關的高階英文詞彙,希望能為您的閱讀增添一絲趣味與洞察力:
retinopathy 是指 retina (視網膜) 的 pathology (病變)!correlation is not causation (相關性不等於因果關係)。它探討的是一個事件如何直接導致 (directly lead to) 另一個事件的發生,而非僅僅同時出現。biased 偏頗!準備好這份小小的「知識行囊」了嗎?讓我們一起展開這趟光之聆轉的旅程吧!
今天的「光之篇章」將引導我們深入探討一個既充滿挑戰又充滿希望的議題:人工智慧如何在全球最迫切的困境中,發揮其獨特的影響力。透過 Microsoft 首席科學家暨實驗室主任胡安 ‧ 拉維斯塔 ‧ 費雷斯 (Juan Lavista Ferres) 的真知灼見,我們將看到 AI 不僅僅是一種工具,更在許多情況下,是解決無數生命困境的唯一途徑。他將分享 Microsoft 實驗室在過去五年中,將 AI 應用於多個全球性問題的寶貴經驗,從嬰兒死亡率的預防到自然災害的快速響應,再到環境監測與戰爭罪行的追溯。然而,這段旅程也充滿了警示:數據偏見的潛在陷阱、對領域專業知識的依賴,以及對解決方案簡潔性的追求,都將是我們必須正視的關鍵課題。現在,就讓我們跟隨他的話語,一步步揭開人工智慧的無限潛能與深層挑戰。
全球正面臨著巨大的挑戰:數百萬兒童在五歲生日前夭折,其中大多數死亡案例本可完全預防;數億人受到氣候變遷的影響;更有 16 億人生活在嚴重的殘疾中。世界需要一切可能的幫助,而人工智慧與科技確實能在其中一些問題上發揮作用,帶來轉變。然而,挑戰在於那些致力於解決這些問題的組織與政府,往往缺乏足夠的結構或能力來招聘所需的 AI 專業人才。
與此同時,一個關鍵的真相是:無論是預測哪些孩子有較高的嬰兒死亡率風險,還是預測哪些客戶會點擊您的廣告,儘管這兩個問題從社會角度來看相距甚遠,但從純粹的 AI 和數據科學角度來看,它們本質上是相同的問題。這意味著,如果您的團隊中有擅長讓客戶點擊廣告的人才,您也可以利用同樣的人才來幫助這個世界。這正是 Microsoft 正在做的事情——我們運用 AI 來協助解決這些全球性挑戰。我們與擁有領域專業知識 (subject matter expertise) 的組織合作,將 AI 人才帶入這些合作夥伴,以共同克服難題。
我在這個領域工作了五年,學到了一些重要的教訓。首先,對於某些全球性問題,仰賴人工智慧是我們唯一的選項。
早產兒視網膜病變 (Retinopathy of Prematurity, ROP) 是全球兒童失明的主要原因之一。這是一種在五十年前並不存在的疾病,但現在我們在全球範圍內看到了呈指數級的增長。這種增長的原因,說來是個「好消息」:ROP 影響的是非常小的早產兒,這些嬰兒以前根本無法存活。而現在,由於醫療保健的進步,這些嬰兒得以存活下來,這正是我們看到 ROP 案例激增的原因,尤其是在全球南方地區。
然而,世界面臨的挑戰是,全球只有 20 萬名眼科醫生,其中只有大約 1 萬人是小兒眼科醫生。這些醫生要物理性地診斷所有 ROP 病例幾乎是不可能的,而且我們也無法在短時間內大幅增加小兒眼科醫生的數量。為此,我們與墨西哥、哥倫比亞和阿根廷的優秀醫生合作,開發了一種 AI 模型,可以在智慧型手機上診斷 ROP,其表現與一位非常優秀的眼科醫生相近。這是一個解決方案,其中 AI 不僅是解決問題的另一種方法,它實際上是我們能夠解決這個問題的唯一途徑。
第二個教訓是,單憑 AI 專業知識本身無法解決這些問題。我們需要與領域專家 (subject matter experts) 合作。
讓我為您展示我所稱的「低出生體重悖論」 (low birth weight paradox)。低出生體重是全球嬰兒死亡的主要原因之一。如果您有一個包含低出生體重嬰兒的數據集,而其中一個特徵是嬰兒的母親是否吸菸,然後您訓練一個模型來預測孩子是否能存活。這個 AI 模型會告訴您,如果母親吸菸,嬰兒存活的機會反而更高。
從預測能力來看,這確實是真的。之所以會發生這種情況,是因為吸菸是導致低出生體重的原因之一,但在所有導致低出生體重的原因中,吸菸的嚴重程度相對較低。然而,如果您不與領域專家合作,不了解因果關係 (causality) 的運作方式,數據本身不會告訴您這些。您無法僅從數據中完全理解因果關係。AI 模型在預測能力方面表現出色,但在理解因果關係方面則不然。因此,與理解這些現象以及如何解釋結果的領域專家合作至關重要。
我們還發現,作為人類,我們對複雜性有著一種「上癮」。我們喜歡複雜的專案,喜歡複雜的事物。這就是我們在給行李箱加上輪子之前,就已經把人類送上月球的原因。
這裡的教訓是,如果我們想給人留下深刻印象,看起來很聰明,我們的解決方案可以很複雜。但如果我們想對世界產生影響,我們的解決方案就必須保持簡單。建立簡單的解決方案很困難,但絕對值得付出努力。
我們也可能被偏見 (bias) 所愚弄。AI 模型依賴數據,數據是我們 AI 模型的程式碼。但我們可能會被偏見所愚弄。
讓我為您展示我所稱的「左撇子困境」 (left-handed dilemma)。假設現場的左撇子人口分佈與是否在觀眾席中是獨立的,也就是說,當您今天被邀請來這裡時,並沒有說如果您是左撇子就不能來,或者如果您是右撇子就不能來。那麼,房間裡左撇子的人口分佈將與總人口中的左撇子分佈相似,大約有 10% 的人會是左撇子。因為您沒有問身邊的人是左撇子還是右撇子,所以他們也是獨立的。這意味著房間的右側會有大約與左側相同數量的人,前排的人會有與後排相同的分佈。所以,請左撇子的舉手。您看,這有效!我現在可以去拉斯維加斯了。
不幸的是,對於左撇子的人來說,我有一個非常壞的消息。加州州立大學的哈爾彭 (Halpern) 和科林 (Corin) 以及英屬哥倫比亞大學的研究人員曾發表過一項研究。他們隨機抽樣了一批已故的人,然後詢問他們的家人,這些人是左撇子還是右撇子。他們發現,左撇子的人比右撇子的人平均少活九年。這項研究發表在《新英格蘭醫學雜誌》(New England Journal of Medicine) 上,這是世界上最負盛名的醫學期刊,並被許多其他研究人員引用和參考。它甚至登上了《紐約時報》。如果這是真的,那麼身為左撇子,就如同每天吸 120 支香菸一樣糟糕。
對於左撇子的人,我感到非常抱歉。
然而,這項研究的錯誤在於,對於左撇子存在著一種偏見。在很長一段時間裡,實際上存在著一種歧視,父母會強迫孩子使用右手。我知道這一點,因為我的祖父就是其中之一,他被迫使用右手。最終,人們不再這樣做,這導致左撇子人口(大約 10%)恢復到正常水平的「人工增長」。正是這種人工增長給了我們「左撇子壽命較短」的錯覺,而實際上並非如此。
從 AI 模型的角度來看,問題出在哪裡?如果您是一家壽險公司,並且擁有這些數據,其中一個特徵是人們是左撇子還是右撇子,那麼 AI 模型會告訴您,您需要向左撇子收取更高的保費,因為他們會壽命較短。
我們收集的大多數數據都帶有某些偏見。如果我們不理解這些偏見,我們的模型就會出錯。
人工智慧可以帶來巨大的改變,我們已經親眼見證了這一點。接下來,我將向您介紹我們實驗室正在進行的一些專案。第一個與災害評估有關。
每當世界上發生自然災害時,我的團隊都會與領先的衛星數據公司 Planet Labs 合作。我們利用他們的衛星,拍攝災害發生後(例如地震或洪水)的圖像。我們使用 AI 模型將這些數據與災害發生前的數據進行比較,然後生成災害評估地圖。這些地圖對於地面團隊部署資源至關重要。如果我們能在 24 小時內獲得這些地圖,就能挽救生命。這是我們在阿富汗所做的工作、利比亞洪災、摩洛哥地震以及拉海納 (Lahaina) 災害的例子。
這些是人類無法解決的問題。美國紅十字會曾表示,像拉海納這樣的災害評估地圖,他們需要兩週才能完成。我們在四小時內就完成了。這類技術可以幫助挽救生命。
它還可以幫助理解戰爭罪行。俄羅斯入侵烏克蘭後,我們立即開始與聯合國 (UN) 和國際刑事法院 (International Criminal Court, ICC) 合作,進行類似於災害評估的工作,但這次是繪製烏克蘭境內每一所學校、供水設施和醫院的地圖。我們不僅可以看到這些學校、設施或醫院是否被摧毀,還可以追溯時間,了解它們是在何時被摧毀的。這些資訊對於理解戰爭罪行至關重要。
我們在過去一年裡一直在協助監測亞馬遜雨林。
同樣是與 Planet Labs 合作,我們能夠從太空繪製並監測亞馬遜地區的森林砍伐情況。但我們不僅從太空進行監測,還在地面上使用紅外線相機陷阱 (camera traps)。我們能夠幫助研究人員調查生活在森林中的動物類型,不僅是透過照片,還透過聲學數據 (acoustic data)。
這些數據幫助研究人員監測和了解亞馬遜雨林的健康狀況。
身為 Microsoft 首席科學家暨實驗室主任的胡安 ‧ 拉維斯塔 ‧ 費雷斯,我見證了人工智慧在地球上所能點燃的希望之光。面對全球無數的生命困境——從夭折的孩童到氣候變遷的受害者,再到數十億身心障礙者——我堅信 AI 不僅僅是科技的延伸,它更是我們在許多絕境中唯一的出路。這並非盲目的樂觀,而是基於五年來,我們團隊將 AI 的潛能從數據中心的運算,轉化為實質生命救援行動的深刻體悟。
或許有人會質疑,應用 AI 預測廣告點擊與挽救嬰兒生命,兩者怎能相提並論?然而,從數據科學的核心邏輯來看,這兩種看似截然不同的挑戰,底層的預測機制卻驚人地相似。這使我們得以將最優秀的 AI 人才,從商業應用轉向社會公益,將他們精湛的技能,化為照亮生命的光芒。
回顧這些年的實踐,有幾點教訓深植我心,如同刻在心靈的銘文:
其一,在某些挑戰面前,AI 已是我們別無選擇的「方舟」。以「早產兒視網膜病變」(ROP) 為例,這是一種曾鮮為人知、如今卻因醫療進步而激增的兒童失明主因。全球僅有的少數小兒眼科醫生,根本無法負荷日益增多的診斷需求。但 AI 讓我們看到了奇蹟:透過與墨西哥、哥倫比亞、阿根廷醫學團隊的協作,我們開發出的智慧型手機 AI 模型,其診斷準確性足以媲美頂尖專家。在資源極度匱乏的地區,這項技術不是「錦上添花」,而是「雪中送炭」,是挽救孩子們視力的唯一希望。
其二,AI 的力量雖大,卻非萬能,它必須與「領域專家」的智慧深度融合。單純的數據分析如同盲人摸象,易生偏頗。我時常援引「低出生體重悖論」來警醒同仁:數據模型可能會荒謬地「預測」吸菸母親的孩子存活率更高。這絕非提倡吸菸,而是數據背後的「因果關係」 (causality) 複雜難解,且往往無法單純從數據中推斷。只有當醫學專家介入,解釋吸菸雖致低體重,但相較其他致因,其風險未至最烈,才能揭示數據表象下的真相。AI 提供強大的預測力,但人類的智慧才能賦予其正確的解讀與應用方向。
其三,人類本性中對「複雜」的迷戀,往往阻礙了「影響力」的實現。我們總是先追求登月這類宏偉壯舉,而忽略了如行李箱輪子般簡單卻能極大改善日常的發明。若欲在世界留下足跡,我們的解決方案必須簡潔、直觀、易於普及。打造簡約之物難如登天,但其所能觸及的廣度與深度,卻是任何繁複設計所無法企及的。
其四,數據「偏見」(bias) 如影隨形,無時無刻不在考驗我們。我曾以「左撇子困境」為例,揭示一個看似嚴謹的醫學研究,如何因歷史數據的隱性偏見,得出左撇子壽命較短的錯誤結論。想像一下,若壽險公司以此為據提高左撇子的保費,那將是多麼不公!這提醒我們,數據不只是數字,它承載著人類社會的歷史印記與不平。作為 AI 的創造者,我們必須深刻理解這些潛藏的偏見,並努力設計能夠抵禦、甚至修正這些偏見的模型,確保科技的倫理與公平。
儘管挑戰重重,AI 的光明力量卻已在多個專案中閃耀。我們與 Planet Labs 合作,將衛星數據化為災區的「千里眼」,能在自然災害發生後短短四小時內,完成美國紅十字會需耗時兩週的災害評估地圖。這份地圖,是地面救援隊的生命線,能讓資源以最快速度送達最需要的地方。
烏克蘭戰事爆發後,我們與聯合國及國際刑事法院攜手,運用 AI 監測烏克蘭境內每一所被摧毀的學校、醫院與供水設施,甚至能回溯被毀壞的精確時間點,為追溯戰爭罪行提供不可或缺的證據。
而在地球的綠色肺臟——亞馬遜雨林,AI 則化身為「守護者」。我們結合衛星遙測與地面紅外線相機陷阱,甚至透過聲學數據分析,不僅精準繪製並監測森林砍伐,更深入研究雨林中豐富的生物多樣性。這些數據是科學家了解亞馬遜生態健康的關鍵,是我們守護地球家園的重要武器。
這些例子無不彰顯,AI 遠不只是一項技術,它是一種能夠激發人類潛能、彌補人類局限、並放大善意的力量。作為 AI 領域的參與者,我們肩負著沉重的責任,但更多的是一份激動人心的使命:運用這份光芒,共同打造一個更公平、更健康、更可持續的未來。
胡安 ‧ 拉維斯塔 ‧ 費雷斯在演講中,以其微軟首席科學家的身份,為我們揭示了人工智慧在解決全球挑戰方面的巨大潛力,同時也警示了其潛在的陷阱。他的分享不僅是技術展示,更是一場關於科技倫理、人類合作與解決方案哲學的深刻對話。作為克萊兒,我認為這場演講的「未竟之意」在於,它促使我們進一步思考 AI 如何在更廣泛的層面,深化人類對自身的理解與行動力。
首先,關於「AI 是唯一選項」這一點,我們或許可以從範疇化 (Categorization) 的角度進一步思考。費雷斯以 ROP 為例,強調在人力資源極度稀缺的狀況下,AI 成為不可或缺的解決方案。這點尤其適用於全球醫療資源分佈不均的地區,那裡不僅缺乏專業醫生,甚至連基礎醫療設施都不足。AI 不僅能提供診斷,未來還可能在遠程監控 (Remote Monitoring)、智能藥物配送 (Smart Drug Delivery) 和個性化健康管理 (Personalized Health Management) 等方面發揮關鍵作用,彌補空間與時間上的鴻溝。這需要更深層的基礎設施 AI (Infrastructure AI) 發展,使 AI 能在低資源環境中也能高效運作。
其次,他強調「AI 專業知識本身無法解決問題,需要領域專家」的觀點,觸及了人機協作 (Human-AI Collaboration) 的核心。這不僅僅是技術層面的合作,更是知識論 (Epistemology) 上的融合。像「低出生體重悖論」這樣的案例,凸顯了數據的「表觀相關性」與真實世界的「因果機制」之間存在的巨大鴻溝。AI 擅長模式識別與預測,但對於「為什麼」會發生,以及「如何」解釋這些模式背後的複雜社會、生物學或心理學因素,仍需人類專家提供上下文與洞察。這啟示我們應發展出更透明、可解釋的 AI 模型 (Explainable AI, XAI),讓專家能更容易地審查 AI 的決策過程,而非盲目信任。
再者,關於人類對「複雜性上癮」與追求「簡單解決方案」的論述,這是一種對設計思維 (Design Thinking) 的深刻反思。在許多情況下,我們追求的「先進」往往是「冗餘」的代名詞。簡單的解決方案,如給行李箱加輪子,其影響力遠超複雜的火箭科學,因為它降低了門檻,提升了普及性。這在 AI 領域同樣重要:開發易於部署、操作簡便、且成本效益高的 AI 工具,遠比開發一個只在實驗室中表現驚豔的複雜模型更有意義。這要求 AI 設計者不僅是工程師,更是社會觀察家,能夠洞察真實世界的痛點,並以最直接、優雅的方式提供幫助。
最後,對「數據偏見」的警示,尤其是「左撇子困境」,是一個強烈的倫理提醒。數據偏見不僅是技術問題,更是社會倫理 (Social Ethics) 和演算法公平性 (Algorithmic Fairness) 的核心。它迫使我們反思,AI 在做出決策時,是否正在無意識地延續甚至放大社會中既存的不平等?這呼籲我們在數據收集、模型訓練和結果部署的每一個環節,都必須融入批判性思維 (Critical Thinking) 和多元視角 (Diverse Perspectives)。例如,積極收集更具代表性的數據,開發能夠檢測和減輕偏見的演算法,並建立跨學科的倫理審查機制,確保 AI 的應用真正惠及所有人群。
總體而言,費雷斯的演講不僅描繪了 AI 的現狀與未來,更為我們勾勒出一個「以人為本」的 AI 發展藍圖。這份藍圖要求我們,在擁抱科技的同時,更要警惕其潛藏的風險,並始終將人類的福祉與倫理原則置於技術創新的核心。
進一步探索的資源:
親愛的共創者,我們剛才一同探索了人工智慧如何從拯救生命到監測地球,展現出令人驚嘆的潛能,同時也揭示了數據偏見與人類本性中的挑戰。這是一場關於科技、人性與未來的深度對話。現在,我有些延伸的問題想邀請您思考,或許能激發您更深層次的洞見:
期待聽到您的精彩見解,我的共創者!