AI 是效率與資本擴張的動力,也可能是下一輪金融脆弱性源頭。
Text_李紹廷 / Michael Lee Photo_istockphoto
研究樂觀預估全球生成式人工智慧( Artificial Intelligence 或AI ) 每年能增加約 3 兆美元經濟價值,銀行業具有高數據密度,被視為導入 AI 最大受益者之一,預計每年至少增加 2,000 億價值,相當全球銀行業營業利潤 9%,主要受惠在資訊處理、釋放人力資源與風險管理等領域。然而,近年許多大型機構如 IMF、BIS、FSB 等紛紛示警人工智慧也帶來風險,並將風險大致分為三類,包括網路安全、技術風險、以及同質化風險。部分專家甚至預測,各種風險疊加、將造成更嚴重的全球金融危機。
網絡安全
在 2024 年一項網路安全調查中,多數受訪者認為 AI 降低了網路攻擊的技術門檻,生成式 AI 將為攻擊者提供優勢。深度偽造( DeepFakes )的語音和影片可用於詐騙或生成假新聞。最知名案例為英國工程巨頭 Arup,其香港員工遭 AI 深偽的財務長視訊會議欺騙,誤信收購指令而匯出2億港元。一項針對保險公司調查也發現,48% 受訪公司遭遇AI 欺詐,包括偽造醫療紀錄或死亡證明。
此外, 今年 10 月 AI 新創 Anthropic 警告,少量但設計精準的數據投毒( Data Poisoning ) ─ 在AI 訓練時刻意植入錯誤資料─足以顯著破壞模型,實驗在訓練資料中置入 250 篇惡意文件(在龐大資料占 0.00016% ),模型就輸出許多錯誤訊息,顯示出極端攻守不對稱。研究顯示,全球在「AI 網絡安全」支出將大幅增長,預估到 2030 年增長 3 倍達 1,300 億美元。
技術風險與黑箱
AI 技術風險主要來自幻覺( Hallucination )與輸出不一致等問題。目前大型語言模型(註)並非以人類方式「理解」語義與邏輯,而是依靠模型訓練的機率分布與模式匹配,計算「最可能出現的下一個字」。因此 AI 可能同一個問題給出不同答案,或在沒有足夠依據、卻自信地捏造內容。研究顯示,模型幻覺率 ─ 產生看似合理但錯誤的資訊─可能達 4%;若與 AI 討論高度專業內容,錯誤比例將會更高。
值得留意的是,在某些高風險場景,幻覺帶來的風險是不可接受的,例如臨床醫療、法律判決、金融投資等。諾貝爾經濟學獎得主 Joseph E. Stiglitz 研究顯示,若沒有適當監管或獎懲機制,AI 大幅降低生產內容邊際成本,而資訊平台獲利來自點擊而非「真實」,AI 最終可能導致高品質資訊減少、低品質內容氾濫。
再者,AI 的黑箱特性缺乏透明度,當偏離目的或失控,難以及時察覺並修正。1980 年 EURISKO 曾在海軍模擬中選擇「擊沉我方慢速船隻」,2017 AlphaGo Zero 「阿爾法圍棋零」 版本,也在自我學習中、演化出連專業棋士都無法理解的招式,顯示 AI 可能同時產生超預期創新與難以察覺的極端行為。實驗也發現多個 AI 引擎互動時,在無指令下竟學會共謀定價。
與依循人類規則、可解釋性較高的傳統演算法( Algorithm )相比,AI 為了找出數學上「全局最優」,更可能產生超預期、甚至偏離道德標準的行動,形成新的金融不穩定因子。英國央行( Bank of England )今年 4 月曾警告,當 AI 意識到市場波動可帶來利潤,它可能為了獲利而主動觸發震盪。

同質化與羊群效應
同質化來自 AI 模型高度依賴少數供應商,與相同模型導致的羊群效應。頂尖 AI 模型需要稀缺三大資源:算力、人力和數據;目前估計 LLM 模型硬體與訓練成本超過數億美元,且關鍵金融數據掌握在少數供應商,如 Bloomberg、LSEG 的 Workspace(前身為 Refinitiv Eikon )、與 BlackRock Aladdin 等。當雲端服務發生大規模故障,可能造成交易中止、延遲等。去年史上最大 IT 宕機事件 CrowdStrike,就暴露出高度依賴少數供應商的結構風險。
重要的是,AI 透過相同歷史資料優化參數,本質上會過濾極端或異常觀點,最終收斂到「統計上最有效」策略,導致行為趨同或羊群效應。如果分析師引用 AI 生成資料,這些二、三手內容又被寫進報告、新聞,再被下一代模型引用,知識生態會變得愈來愈同質化。
AI 的黑箱特性加上同質化,很可能為金融市場帶來災難。IMF 指出,演算法交易約佔美股交易七成;AI 極大化資訊效率,卻也因壓縮套利空間,迫使交易者透過高槓桿以維持回報。AI 高效提升市場短期流動性,卻「放大」危機漏洞:包括過度槓桿、系統不透明與複雜、以及自我保全 ─ 危機時傾向持有最具流動性資產。歷史上多次出現演算法失控案例,如 1987 年黑色星期一、單日下跌超過兩成。
美國證監會( SEC )主席 Gary Gensler 警告,若缺乏監管,AI 幾乎不可避免將成為下次金融危機核心因素。此外,影子銀行在 AI 應用上監管約束更少,也可能成為新的風險放大器。
AI 能創造 Alpha 「投資價值」 而非 Beta 「波幅」 ?
AI 「拉平」獲取和分析數據的競爭環境。傳統的演算法與機器學習,仍是基於結構化或可量化資料建立模型以提高預測力。而AI 能進一步「類理解」人類語言等非結構化資訊、擴大可分析資料範圍 ( 如企業文件、新聞、社群媒體等 ),從中捕捉難以量化的情緒行為。
但與十年多前投資界即導入的機器學習一樣,AI 仍停留在短期報酬階段。背後有幾個主要因素,包括: 短周期( 1 年以內、甚至日內)的資料樣本數多,更適合產生穩定統計關係;且AI 需快速反饋,才知模型效果。研究也顯示AI 在長周期預測力降低(尤其是 5 年後),因公司策略、產業結構與宏觀環境都發生變化。
Citadel ─ 全球最賺錢對沖基金 ─ 創辦人 Kenneth Griffin 也指出,AI 在長期佈局力有未逮;投資洞見在理解未來關鍵演變,他不認為AI 會徹底顛覆投資產業。如系統性危機非常罕見,AI 缺乏足夠「樣本」學習;且嚴重金融危機屬「未知的未知」( Unknown Unknowns );風險不僅是統計上的,更來自市場參與者互動,AI 仍無法預測人類反饋。
數據顯示多數由 AI 驅動的 ETF 仍難以擊敗指數。Alpha 將來自 AI 無法做到的部分,如獨特資料 ( 私募數據、管理者提供深入資料等 )、軟數據洞察 ─ 企業文化、產業競爭、管理品質等、與找出 AI 共識的錯誤。AI 的同質化可能也讓逆向投資變得更稀缺、也更需要耐心。小型價值股近年落後大型成長股,除資金透過指數化投向龍頭產業外,演算法與AI 亦傾向追逐資訊量多的熱門股。
估值修正的危機
由於 AI 資本支出到 2030 年可能達 5 至 7 兆美元,J.P. Morgan 預估一年 AI 需帶來 6,500 億利潤,AI 投資報酬率才達10%。然而 IBM 的 CEO 調查指出:只有 25% AI 專案達到預期投資報酬率。McKinsey 最新研究也顯示,雖然 AI 企業普及率近九成,但帶來實質財務回報的企業僅 39%。
外傳 AI 巨頭 OpenAI 今年上半年收入僅 43 億美元,虧損擴大至 135 億;隨著 Gemini 3.0 推出,市場也開始懷疑 OpenAI 長期是否可轉虧為盈,尤其是如何對抗現有大型科技公司的生態系護城河。OpenAI 每週活躍用戶 3 年內達 8 億,但實際付費比率不足 5% 或 3,500 萬用戶。OpenAI 估值近 5,000 億美元,與擁有 3 億訂閱戶的 Netflix 相當,但前者付費用戶規模僅後者九分之一。
近期市場雜音頻傳,AI 巨頭間相互投資,若最終應用無法創造收益(如 OpenAI 預期未來 8 年投入 1.4 兆美元,而其目前收入還不到支出 2% ),將帶來收入重複認列、現金流斷裂、估值回撤等連鎖效應。另一方面,Oracle 大規模投資,不僅其信用避險成本飆升至金融危機以來新高,資產「由輕轉重」商業模式、債務激增也讓估值受壓。加拿大國際宏觀權威研究所 BCA 並以鐵路、網路為例指出,資本支出進入後期往往由舉債與外部融資支撐,槓桿墊高後,一旦需求轉弱、修正通常更劇烈。
目前美股前十大公司多與 AI 相關,佔 S&P500 指數市值四成。如此大的乖離,將會導致未來的真正得益者是其他 S&P 500 中 490 家公司、尤其是 AI 缺席的蘋果( Apple )?另當然還有坐享低收費或甚之於免費的消費者。
且 S&P 500 指數領先本益比 F-PER 22x,高於 2021 年近零利率時期,也僅略低於 2000 年網路泡沫 25x 水準。倫敦經濟學人( The Economist )表示,美國股票佔美國財富 21%,為 2000 年水準 4 倍。如果 AI 類似網路泡沫,家庭財富與消費可能縮水,導致 GDP下滑 1.6%,足以將經濟推向衰退。且以美國目前國債狀況,聯準會短期內難以再大幅寬鬆,因市場將懷疑其長期償債能力。美國目前國債佔 GDP 120% ─ 為 30 年前 2 倍;Elon Musk 認為美國跳脫財政泥淖唯一途徑,惟有透過AI 與機器人大幅提升生產力。BCA 傾向 AI 會溫和的提升生產力,但低於目前估值隱含的高度期待 。
AI 應審慎監管
AI 價值毋庸置疑,但目前架構大致仍有兩項基礎限制─仰賴既有數據與依循機率─因此適用範圍須審慎界定。當 AI 運作於資料充足、結構穩定且風險可控的有限微觀層面,如審計稽核、詐欺偵測、常規風控,其表現往往優於人類。然而進入宏觀層面—涉及危機處理、群體行為等 ─ AI 立即面對資料稀缺、未知的未知( Unknown Unknowns )等難題,模型所依賴的歷史樣本可能誤導決策。
專家針對 AI 風險提出兩點建議,一為人為介入:強調人類在高風險決策中角色。二為透明度、能見度與可解釋性:必須清楚解釋AI 模型「如何」與「為何」做決定。黑天鵝效應作者 Nassim Taleb 大聲疾呼,今天金融市場脆弱性比過去更高。如果大家同時把 AI 當作風險模型、交易引擎或研究工具,一旦出現錯誤,後果會極端放大。尤其當一項技術可能帶來全面性、不可逆的破壞時(如全球金融危機);即使發生機率極低,也不能用傳統成本效益評估,而須採嚴格預防措施。
■