Thomas Wan is with Christina Tseng.
加班加班, 緊鑼密鼓的EU AI Act Technical Trilogue, 歐盟輪值國西班牙提出一個屬於生成式AI 相關的監理措施. (英國稱為前沿AI).
歐盟加速的達成共識啊.......
西班牙目前正與代表歐盟各國政府部長級會議代表, 提出關於《人工智慧法案》的三方會談, 西班牙提出此具有里程碑意義的立法提案,旨在根據人工智慧造成傷害的可能性對其進行監管。該文本目前處於立法程序的最後階段. 主因即為歐盟政策制定者必須關注且一直在努力定義歐盟人工智慧法規應如何涵蓋此類生成式人工智慧.
由於歐盟AI政策制定者的思維一直朝著風險分層方法發展, 對 GPT-4 等最強大的基礎模型實行較嚴格的制度是基礎思維。因此剛才西班牙輪值主席國與其他歐盟國家分享了關於生成式AI的基礎模型監理的文本交付各代表討論.
分類1. ~~基礎模型~~~
基礎模型文本定義為「一種在大量數據上訓練的大型人工智慧模型,能夠勝任各種獨特的任務,包括生成視頻、文本、圖像、橫向語言交談、計算或生成程式代碼」.
這些模型必須遵守透明度義務, 即向人工智慧系統提供者提供最新的技術文件, 解釋基礎模型的能力和局限性, 以及將在附件中詳細說明的一系列配套要素。
此外, 基礎模型提供者必須證明他們已採取適當措施, 確保模型的訓練符合與版權相關的歐盟法律,特別是要求對在線上公開提供的內容進行數據挖掘活動的處置, 以要求獲得權利人的同意,包括通過機器可讀的方式, 如果權利人已退出退出文本和數據挖掘的版權則屬於例外.
因此基礎模型開發人員必須建立一個機制系統來尊重內容創建者的退出決定. (浮水印倒底要不要直說啊, 還是堅持技術中立??!)
另一項義務是發佈一份足夠詳細的摘要,說明用於訓練基礎模型的內容,以及提供者如何根據歐盟委員會制定的範本管理版權相關.
分類2. ~~ 高影響力基礎模型 ~~
在上一次三方談判會議, 歐盟政策制定者同意對「高影響力」基礎模型引入更嚴格的制度. 因此最近的文本關於“高影響力”基礎模型就被寫下了. 其被定義為“任何使用大量數據訓練的基礎模型,其高級複雜性、功能和性能遠高於基礎模型的平均水準, 可以沿著價值鏈傳播系統性風險,無論是否整合在高風險系統中”. (高影響力模型呼之欲出有哪些了)
在人工智慧法生效後的18個月內, 委員會將不得不通過實施或授權法案,. 根據市場和技術發展, 指定將基礎模型歸類為“高影響力”的門檻. (我個人認為其實不擔心, 這不和DSA, DMA指定的超大型平台或是搜尋平台, 有異曲同工之妙乎?! )
歐盟執行部門將與人工智慧辦公室協商, 指定符合這些門檻的基礎模型. (來了!來了!)
針對高影響力基礎模型的義務包括對抗性審查( 白話一點解釋, 就是AI紅隊啦, 那天白宮公佈AI EO, 我用了這翻譯, 一堆人問我是不是資安的紅隊, 其實是AI開發團隊的紅隊啦, 西班牙這個文本, 受到拜登行政命令影響很深啦...部分資安紅隊朋友群不要在望文生義了...)
另外還有待討論的是, 此類審查義務應如何適用於商業化的高影響力基礎模型, 該系統整合出了傳統軟體等元件, 就像 GPT-4 一樣.
重要的是, 歐盟國家將討論是否需要由外部專家進行紅隊。總統認為供應商可以自己這樣做,反正因為這些模型也將接受獨立稽核/審計。(就一起解決囉...)
EU 人工智慧辦公室可能會要求提供證明該模型符合《人工智慧法》的記錄與軌跡, 並根據合理的要求,授權進行獨立稽核與審查.
(我估計幫忙EU 整理AI標準的顧問EY 比利時樂翻了. 關於這點安永曾韵小姊姊你不要偷笑了), 因為執行獨立稽核審查的評估標準, 會不會包括基本權風險評估還不知道. 因此會不會只有你設想的那些檢測外, 我認為適度的社會倫理法律等專家的加入, 不可或缺)
以上獨立審查主旨在於評估該模型是否符合人工智慧法. EU委員會也應鼓要求, 對於簽署下述的行為準則所做出的任何承諾.
1. 標記為「可能額外需達成」的義務, 包括要求高影響力的基礎模型供應商建立一個系統來密切關注嚴重事件和相關糾正措施.
2. 高影響力的基礎模型將需要評估歐盟的系統性風險,包括將其整合到人工智慧系統中所產生的風險,自市場推出以來至少每年一次,以及任何新版本的發佈.
3. 風險評估應包括傳播非法或有害內容, 以及任何與重大事故或影響民主進程的合理可預見的負面影響. (看到沒....)
委員會有權根據市場和技術發展, 調整對基礎模型和高影響力基礎模型的部署...
分類3. 通用 AI.
通用AI (終於來了...終於如春風悄悄的來了...)
最後一層由ChatGPT等通用人工智慧系統組成, 旨在作為系統“可能基於人工智慧模型, 可以包括其他元件, 如傳統軟體,並通過使用者介面具有服務於各種目的的能力, 既可以直接使用,也可以整合到其他人工智慧系統中.
針對此類西班牙輪值主席國提議,通用人工智慧系統供應商在與下游經濟運營商簽訂許可協定時,有義務將該系統用於一個或多個高風險用例.
這些義務包括在說明中說明系統可能用於的高風險用途,提供技術文件以及與下游人工智慧供應商相關的所有資訊,以遵守高風險要求.
通用人工智慧系統的供應商也可以禁止某些高風險用途。在這種情況下,他們必須採取一切必要和相稱的措施來檢測和執行可能的濫用行為。
All reactions:
7 shares
Like
Comment