Thomas Wan
委員會關於人工智慧系統的指導方針——我們可以推斷什麼?
作者:Rosie Nance、Marcus Evans(英國)和Peter McBurney2025 年 2 月 13 日
歐盟的《人工智慧法案》對人工智慧的開發和使用規定了廣泛的義務。 《人工智慧法案》中的大部分義務旨在規範具體用例對健康、安全或基本權利的影響。這些義務適用於「人工智慧系統」。如果某種工具不屬於人工智慧系統,它將超出《人工智慧法案》的大部分範圍。一組單獨的義務適用於通用人工智慧模型(此處不討論)。
這個定義非常重要——禁令已經生效,不遵守規定的企業將被處以最高達全球年營業額 7% 的罰款。對於高風險人工智慧系統和受透明度義務約束的人工智慧系統,義務從 2026 年 8 月 2 日起開始適用(罰款最高可達全球年營業額的 3%)。
在《人工智慧法案》的立法過程中,「人工智慧系統」的定義成為許多爭論和遊說的主題。《人工智慧法案》第 3(1)條的最終定義留下了許多未解答的問題。第 12 段提供了額外的評論,但並未完全解決這些問題。
歐盟委員會關於人工智慧系統定義的指南草案(以下簡稱「指南」)受到歡迎,該草案旨在幫助各組織評估其工具在多大程度上可能屬於「人工智慧系統」。
指南概覽
該指南似乎缺乏對範圍內外例子的明顯的底層邏輯。第 12 條中關於「僅由自然人定義的規則」是否被捕捉的矛盾似乎被複製和放大了。
有一些可能超出範圍的系統具體例子可能會受到歡迎——例如,線性或邏輯回歸方法可能超出範圍的建議將受到金融服務業的歡迎。這些方法通常用於承保(包括人壽和健康保險)以及消費者信用風險和評分。如果納入最終指南,這種排除可能會產生巨大影響,因為許多原本屬於高風險人工智慧系統義務範圍的系統將發現自己超出了《人工智慧法案》的範圍(但需要注意的是,該指南不具有約束力,市場監督機構或法院可能不會遵守)。
該指南涵蓋了第 3(1) 條和第 12 條(其文字包含在本文末尾供參考)中規定的人工智慧系統定義的要素。重點關注的是實現推理的技術,並給出了實現推理的人工智慧技術的例子,以及由於僅「以狹隘的方式進行推理」而超出範圍的系統。
但是,為什麼系統被認為“推斷”並且在範圍內,或者“以狹義的方式推斷”並且超出範圍的原因尚不清楚。該指南似乎表明,使用「基本」規則的系統將超出範圍,但複雜規則將在範圍內,無論規則是否由人類單獨定義:
符號推理和專家系統等邏輯和基於知識的方法可能在範圍內(見第 39 段)。
然而,僅「以狹義的方式推斷」的系統可能超出範圍,因為它們使用長期建立的統計方法,即使機器學習協助應用這些方法或部署了複雜的演算法。
實際上,這意味著得出某個特定工具是否「推斷」的結論將會很複雜。
這篇文章的其餘部分總結了指南的內容,並在我們的看法中包含了人工智慧治理流程的實用要點。我們在附錄中列出了第 3(1) 條和第 3 段的關鍵文字。
範圍是什麼?
該指南將「人工智慧系統」的定義細分為:
基於機器的系統。
「設計為以不同程度的自主性運作」—完全人工參與的系統被排除在外。然而,需要手動提供輸入來產生輸出的系統可以展示必要的行動獨立性,例如專家系統按照人類委託的流程自動化來產生建議。
適應性(部署後)-這指的是自學習能力,但「可能」一詞的存在意味著自學習並不是工具滿足「人工智慧系統」定義的必要條件。
設計用於根據一個或多個目標進行操作。
推斷如何使用人工智慧技術產生輸出(5.1)——這是定義的核心術語,我們將對此進行詳細討論。該指南討論了實現推理的各種機器學習技術(監督、無監督、自我監督、強化和深度學習)。
但是,他們也討論了邏輯和基於知識的方法,例如用於醫學診斷的早期專家系統。如上所述,目前尚不清楚為什麼在以下一些排除的情況下會納入這些方法,以及在什麼時候這種系統會被視為超出範圍。
以下關於超出範圍的系統的部分討論了由於推理能力有限而可能不符合定義的系統。
產生預測、內容、建議或決策等輸出。
影響物理或虛擬環境-即影響有形物體,如機械手臂,或虛擬環境,如數位空間、資料流和軟體生態系統。
什麼(可能)超出範圍? – 「以狹隘方式推理」的人工智慧系統(5.2)
該指南討論了可能超出人工智慧系統定義範圍的四種系統類型。這是因為它們分析模式和「自主調整輸出」的能力有限。
改進數學最佳化的系統(42-45):
有趣的是,指南明確指出「用於改進數學優化或加速和近似傳統的、成熟的優化方法(如線性或邏輯回歸方法)的系統超出了人工智慧系統定義的範圍」。這項澄清可能會產生很大的影響,因為回歸技術通常用於評估信用風險和承保,如果由人工智慧系統執行,這些應用可能會具有高風險。
該指南還認為,即使使用機器學習,數學優化方法也可能超出範圍——“在優化問題中近似函數或參數同時保持性能的基於機器學習的模型”可能超出範圍,例如“它們通過提供學習到的近似值、啟發式方法或搜索策略來幫助加快優化任務。”
該指南特別強調了超出範圍的長期既定方法。這可能是因為《人工智慧法案》旨在解決尚未完全了解風險的新技術的危險,而不是成熟的方法。它還強調了《人工智慧法案》中的祖父條款——已經投放市場或投入使用的人工智慧系統只有在 2026 年 8 月 2 日之後做出重大修改的情況下才會納入高風險義務的範圍。對於被禁止的行為,沒有任何祖父條款。
即使系統建模的過程很複雜,它們仍可能超出定義的範圍,例如,機器學習模型近似複雜的大氣過程,以實現更有效率的天氣預報。預測衛星電信系統網路流量以優化資源分配的機器學習模型也可能超出範圍。
值得注意的是,我們認為,將數學最佳化與其他技術結合的系統不太可能受到豁免,因為它們不能被視為「簡單」。例如,使用邏輯回歸和強化學習的圖像分類器很可能被視為人工智慧系統。
基本資料處理(46-47):
毫不奇怪,基於固定的人為程式設計規則的基本資料處理可能超出了範圍。這包括用於根據特定標準進行排序和篩選的資料庫管理系統,以及不包含 AI 功能的標準電子表格軟體應用程式。
假設檢定和視覺化也可能超出範圍,例如使用統計方法建立銷售儀表板。
基於經典啟發式方法的系統(48):
這些可能超出範圍,因為經典啟發式系統應用預先定義的規則或演算法來得出解決方案。 它給出了一個基於(突破性且高度複雜的)國際象棋計算機的具體示例,該計算機使用經典啟發式方法,但不需要事先從數據中學習。
經典啟發式方法顯然被排除在外,因為它們「通常涉及基於規則的方法、模式識別或反覆試驗策略,而不是數據驅動的學習」。然而,尚不清楚為什麼這是決定性的,因為第 39 段提出了可能在範圍內的各種基於規則的方法。
簡單預測系統(49-51):
即使使用機器學習方法,透過基本統計學習規則即可實現效能的系統也可能超出範圍。使用基本基準測試進行財務預測可能就是這種情況。這可能有助於評估更先進的機器學習模型是否能夠增加價值。然而,「基本」方法與「高級」方法之間並沒有明確的界限。
我們的看法
這些指導方針似乎同時具有保守和商業友好的設計,這導致風險在於我們沒有明確的規則來規定哪些系統應受到限制。
5.2 中超出範圍的系統範例可能會受到歡迎——如上所述,對於那些參與承保人壽和健康保險或評估消費者信用風險的人來說,對線性和邏輯回歸的引用可能會受到歡迎。然而,即使最終形成,該指南也不具有約束力,而且很難預測市場監督機構和法院將如何適用它們。
就人工智慧治理計畫中的分類和評估而言,有一定的空間可以對非人工智慧系統的工具進行分類,但重點需要放在《人工智慧法案》義務是否適用於工具:
1. 分類
組織可以篩選出未用於自動決策且沒有 AI 附加元件的傳統軟體,例如文字處理器或電子表格編輯器。
然而,除此之外,對於任何特定用例來說,評估它是否可以說超出範圍都是很有挑戰性的,因為它沒有推斷,或者只是「以狹隘的方式」推斷。
2. 禁止事項-重點在於該行為是否被禁止
考慮到所涉及的處罰,重點應該是記錄為什麼某項技術不符合禁令範圍,而不是該工具是否是人工智慧系統。
如果某種做法被禁止,那麼評估它是否屬於人工智慧系統可能毫無意義——根據其他立法,被禁止的做法可能會引發重大風險。
3. 高風險人工智慧系統和透明度義務
對於高風險類別和透明度義務,我們再次建議先評估工具是否屬於第 6 條或第 50 條範圍內的用例。
如果確實如此,那麼值得評估該工具是否超出「人工智慧系統」定義的範圍,並考慮第 5.2 節中的例子。
我們將密切關注監管評論、指南更新和判例法,因為在這個領域,重點的微小變化都可能對企業產生重大影響。
附錄 – 第 3(1) 條及第 12 條
「人工智慧系統」的定義載於第三條第(1)款:
「人工智慧系統」是指一種基於機器的系統,該系統旨在以不同程度的自主性運行,部署後可能表現出適應性,並且為了明確或隱含的目標,根據收到的輸入推斷如何產生輸出,例如預測、內容、建議或可以影響物理或虛擬環境的決策; [強調添加]
敘述 12 給了進一步的說明:
「『人工智慧系統』的概念…應該基於人工智慧系統與更簡單的傳統軟體系統或程式設計方法區分開來的關鍵特徵,並且不應涵蓋基於自然人單獨定義的規則自動執行操作的系統。人工智慧系統的一個關鍵特徵是其推理能力。這種推斷能力是指獲取能夠影響物理和虛擬環境的輸出(例如預測、內容、建議或決策)的過程,以及人工智慧系統從輸入或資料中得出模型或演算法(或兩者)的能力。在建構人工智慧系統時實現推理的技術包括從資料中學習如何實現某些目標的機器學習方法,以及從要解決的任務的編碼知識或符號表示中進行推理的基於邏輯和知識的方法。人工智慧系統的推理能力超越了基本的數據處理能力,能夠進行學習、推理或建模…”
突出顯示的文本似乎引入了矛盾,試圖排除僅由人類定義的規則,但包括基於邏輯、符號或專家系統(其規則由人類定義).
All reactions:
1 share
Like
Comment
Share