Thomas Wan
~日本人工智慧監理方法與影響~ 2023 七大工業國會議
by Hiroki Habuka (羽深宏樹, 日本經濟產業省,治理策略局次官)
人工智慧(AI)正對我們的企業和日常生活產生重大變革。儘管 AI 為社會問題帶來了劇變的解決方案,但其不可預測的性質、無法解釋性以及對數據偏見的反映或放大引發了對隱私、安全、公平甚至民主的各種擔憂。為此,世界各地的政府、國際組織和研究機構在 2010 年代末開始發布一系列以人為本的 AI 原則。1 這些原則從廣泛的原則轉變為更具體的法規。2021 年,歐洲委員會發布了《人工智慧法案》草案,該法案將 AI 分為四個等級,並規定相應的義務,包括加強安全、透明和問責措施。在美國,2022 年演算法問責法案(Algorithmic Accountability Act of 2022)於 2022 年 2 月在國會兩院提出。2022 年 6 月,加拿大提出了《人工智慧和資料法案》(AIDA),該法案將強制要求對高影響力 AI 系統的風險管理和資訊披露。
雖然在一定程度上規範 AI 是防止對基本價值觀的威脅所必需的,但擔心合規負擔和法規內容的模糊可能會扼殺創新。此外,法規碎片化將不僅對企業,而且對社會帶來嚴重的成本。如何在加速有益創新和應用的同時解決 AI 的風險,是包括七國集團(G7)領導人在內的政策制定者面臨的最困難的挑戰之一。
在 2023 年日本舉行的 G7 峰會上,數位部長們預計將討論以人為本的 AI 方案,這可能涵蓋監管或非監管政策工具。作為主辦國,日本在 AI 監管方面的做法可能對全球領導人達成共識產生相當大的影響。本文分析了日本 AI 監管的主要趨勢,並討論了在 G7 峰會上可能提出的觀點。總之,日本製定和修訂了與 AI 相關的法規,目的是最大限度地發揮 AI 對社會的積極影響,而非因過高估計的風險而對其進行壓制。強調的是基於風險的、敏捷的、多利益相關方參與的過程,而非一刀切的義務或禁令。日本的做法為全球 AI 監管趨勢提供了重要的洞察。
日本的 AI 法規
基本原則
2019 年,日本政府發布了《以人為本的 AI 社會原則》(Social Principles),作為在社會中實施 AI 的原則。《社會原則》提出了三個基本哲學:人的尊嚴、多樣性與包容性,以及可持續性。值得注意的是,《社會原則》的目標不是為了保護這些原則而限制 AI 的使用,而是通過 AI 來實現它們。這與經濟合作與發展組織(OECD)的 AI 原則的結構相符,其第一原則是通過 AI 實現「包容性增長、可持續發展和福祉」。為了實現這些目標,《社會原則》提出了圍繞 AI 的七個原則:(1)以人為本;(2)教育/素養;(3)隱私保護;(4)確保安全;(5)公平競爭;(6)公平、問責和透明;和(7)創新。應該指出的是,這些原則不僅包括隱私和安全的保護要素,還包括指導 AI 積極使用的原則,如教育、公平競爭和創新。日本的 AI 監管政策基於這些社會原則。其 AI 法規可分為兩類。(在本文中,「法規」不僅指具有約束力的法律,還指無約束力的指南和標準。):
1. 關於 AI 的法規:管理與 AI 相關的風險的法規。
2. 為 AI 而設的法規:促進 AI 實施的監管改革。
如下所述,日本對 AI 法規採取了基於風險和軟法律的方法,同時積極推進從為 AI 而設的監管角度出發的立法改革。
關於 AI 的法規
具有約束力的法規
日本沒有普遍限制 AI 使用的法規。根據 2021 年 7 月由經濟產業省(METI)發布的《日本 AI 治理 1.1 版》報告,該報告全面描述了日本的 AI 監管政策(AI 治理報告),認為“目前尚不需要具有法律約束力的 AI 系統橫向要求”。這是因為法規在跟上 AI 創新的速度和復雜性方面面臨困難。在這種情況下,規定性、靜態、詳細的法規可能會扼殺創新。因此,經濟產業省報告得出結論,政府應尊重企業在 AI 治理方面的自願努力,同時提供無約束力的指導意見以支持或指導這些努力。這種指導意見應基於多方利益相關者的對話,並及時不斷更新。這種方法被稱為“敏捷治理”,是日本在數字治理方面的基本方法。
從特定行業的法規來看,沒有一個法規禁止使用 AI 本身,而是要求企業採取合適措施並披露風險資訊。例如,數字平臺透明度法要求大型網上商城、應用商店和數位廣告企業確保與商業用戶進行交易的透明度和公平性,包括披露影響搜尋排名的關鍵因素。2 金融工具和交易法要求從事演算法高速交易的企業向政府登記,並要求它們建立風險管理系統和保留交易記錄。從公平競爭的角度來看,日本公平交易委員會分析了由演算法進行的卡特爾和不公平交易的潛在風險,並得出結論,大多數問題都可以通過現行的《反壟斷法》解決。
其他相關法律
有一些法律並未直接立法規定 AI 系統,但仍與 AI 的發展和使用息息相關。《個人資訊保護法》(APPI)描述了對收集、使用或傳輸個人資訊的組織的主要強制性義務。2022年生效的《個人資訊保護法》的最新修訂案導入了化名化個人數據的概念。3 由於處理化名化資訊的義務比處理個人資訊的義務要小,因此,這一新概念有望鼓勵企業使用更多數據進行 AI 開發。如果 AI 對第三方造成損害,AI 的開發者或營運者在民法上可能會因過失而承擔侵權責任。然而,在每種情況下,由於 AI 輸出的不可預測性和輸出原因難以確定,因此很難判定誰是過失方。4《產品責任法》在主張侵權責任時減輕了受害者的舉證負擔,但該法僅涵蓋源於有形物品的損害。因此,它可能適用於安裝 AI 的硬體,但不適用於 AI 程式本身。
在《針對 AI 的監管》部分將介紹旨在鼓勵 AI 開發和部署的其他相關法規和法律。針對私人方的指導如前所述,日本沒有直接禁止使用 AI 的法規。然而,如前所述,如果因 AI 系統發生事故,營運者可能會承擔侵權或產品責任。此外,在一些案例中,主要是在隱私領域,AI 項目因社會批評而被放棄,並不一定是因為違反了現有法規。預料到這些需求,政府為企業提供了各種工具,以幫助他們自願實施適當的 AI 治理措施。
經濟產業省的《AI 原則實施治理指南》總結了實施社會原則的行動目標以及如何通過具體實例實現它們。它解釋了根據敏捷治理框架與利益相關者協作建立和更新 AI 治理結構的過程。為保護和利用數據,已經發布了幾份指南。經濟產業省和內閣府共同制定的《數位化轉型公司隱私治理指南》和《攝影機圖像利用指南》就如何處理隱私數據提供了指導,不僅遵守《個人資訊保護法》,還根據與利益相關者的溝通採取適當措施。為促進 AI 開發和資料轉移的公平合約,經濟產業省發布了《AI 和資料利用合約指南》。這些指南解釋了在簽訂數據轉移或 AI 開發合同時的關鍵法律問題,並提供了實際的模型條款。
企業自願性倡議
隨著政府發布有關AI和資料治理的指南,一些私營公司開始積極採取AI治理。富士通出版了一本實踐指南,展示了進行AI倫理影響評估的過程,並釋出了將其應用於代表性案例的範例。索尼建立了索尼集團AI倫理指南,並將其添加到其品質管制系統中。NEC遵循NEC集團AI和人權原則,由數位信任業務策略部門負責實施。
研究機構的工具
日本研究機構也提供了各種工具來促進AI治理。由METI管理的日本先進產業科技研究所(AIST)提供了機器學習品質管制指南,該指南為基於機器學習的產品或服務建立質量基準標準。它還提供了通過開發過程管理和系統評估實現質量的程序指南。作為另一個例子,東京大學未來倡議研究所開發了風險鏈模型來結構化AI的風險因素,並與私營公司合作進行案例研究。
為AI制定法規
雖然上面提到的關於AI法規方面經常被討論,但為AI制定法規同樣重要,以使AI對社會產生最大的積極影響。日本立法者根據社會原則,積極推動法規改革,以促進AI的實施,旨在促進創新和增長。這些法規改革的一些例子如下:
部門法規改革
在2020年,修訂後的《道路交通法》和《道路運輸車輛法》生效,允許在公共道路上進行3級自動駕駛(即條件自動化)。2021年,本田成為第一家提供合法認可的3級汽車的製造商。允許4級自動駕駛(即高度自動化)的新修訂案將於2023年4月1日生效。
「日本立法者在適當考慮涉及風險的基礎上,利用法規改革促進AI在各種情境中的應用。」
《在金融領域》
2020年修訂的分期銷售法允許“認證綜合信用購買仲介”利用資料和AI確定信用額度。過去,信用卡公司在評估信用額度時必須使用法定公式,考慮年收入、家庭結構等因素。
《對於工廠安全》
2017年《高壓氣體安全法》下建立了“超級認證操作員”制度。工廠操作員必須每年停止執行並進行安全檢查,但使用AI和無人機的先進安全技術的認證操作員(超級認證操作員)可以在長達八年的時間內進行安全檢查,無需中斷運行
《著作權法》
2017年,修訂以促進機器學習中數據的使用。修訂條款明確規定,為開發AI模型而通過網路或其他方式下載或處理資料不構成侵犯著作權。
《不正競爭防止法》
2019年修訂保護了有限存取的共享數據,這通常涉及出售的數據集。未經授權的取得或濫用此類數據可能導致禁令或損害賠償。這些獨特的規定將有助於AI開發者在保護數據持有者的適當利益的同時,使用更多數據進行AI學習。
全面性監管改革 —— 數位臨調
許多傳統法規要求人類進行視覺檢查或在營業場所駐紮。然而,AI系統應該在一定程度上能夠取代這種人類合規性。為了解決這個問題,日本內閣於2021年11月成立了數位臨調(“臨調”指的是專門委員會)。數位臨調旨在全面修改可能阻礙使用數位技術作為建立監管合規手段的法規。該評估的目標包括約5,000項有關模擬方法和非AI技術的法規,其中包括書面文件要求、現場檢查、定期檢查和全職常駐
摘要
在針對AI的監管方面,日本尊重企業自願性治理的做法,並提供非強制性指南來支持,同時對一些大型數位平臺實施透明度義務。在針對AI的監管方面,日本正在尋求允許AI用於實現積極的社會影響和實現監管目標的監管改革。然而,究竟哪種AI實際上符合監管要求還有待觀察。在制定規定時應考慮全球標準,因此需要在AI監管方面進行國際合作。
G7國家之間的差異與共同點
如前所述,AI監管是G7領導人面臨的最具挑戰性的話題之一。到目前為止,G7國家的做法似乎可以分為兩大類。第一類試圖採取“全面且基於硬法”的方法,為至少高風險AI設定義務(如治理、透明度和安全性),並在違反的情況下給予重大制裁(類別1)。法國、德國和義大利(歐盟AI法案適用的國家)可以歸入這一類。提出AIDA的加拿大也被納入此類別。第二類採取“特定行業和基於軟法”的方法,通過非強制性指導(而非全面AI法規)促進合適的AI治理,同時在某些行業要求透明度和數據保護(類別2)。日本和英國屬於此類別。目前,美國也屬於這一組,但如果國會通過演算法問責法或類似法案,可能會更接近(類別1)。
考慮到這一差距,G7討論將集中在“擁有不同方法的國家之間可以進行哪種合作?”接下來,話題將轉向“可能的合作是什麼?”當仔細研究各國的草擬法規(類別1)和已公佈的指導意見(類別2)時,除了它們是否具有法律約束力外,它們之間存在許多相似之處。首先,在這兩種情況下,通過AI治理要實現的目標與OECD AI原則(以及其他相關原則,如G20 AI原則)保持一致,包括透明度和可解釋性、隱私、公平、安全與可靠性以及問責。在這兩個類別中,都建議(或要求)至少對某些類別的高風險AI提供適當的資訊給利益相關者,進行影響評估,並記錄AI操作。
第二,不僅在類別2國家,而且在類別1國家,具體的監管要求尚未詳細描述,這意味著AI服務提供商在自身行為方面有很大的裁量空間。他們可能需要解決的問題包括:如何用簡單的語言解釋演算法的準確邏輯?如何評估無法輕易量化的風險?確保公平、安全或隱私的技術方法有哪些?在發生事故時,補救機制和最終責任負擔將如何設計?這些細節將需要由每個AI系統提供商或使用者設計和更新。
對於僅與類別2國家相關的AI服務提供商來說,這種AI治理的實施尚未成為法律強制性要求。然而,至少對於具有大市場和社會影響力的AI運營商來說,考慮和實施適當的治理和風險緩解措施對於AI至關重要,市場和社會不會接受他們的服務。
考慮到這種情況,不僅實踐人工智慧治理的AI服務提供商,而且評估人工智慧治理適當性的監管機構、市場參與者和個人,都需要對良好的人工智慧治理實踐有共同的理解。此外,由於人工智慧將對國內和全球產生影響,希望這樣的共同理解能夠由志同道合的國家開發和採用。
以下是可能的協作步驟:
有充分的理由讓各國考慮採取實際步驟進行國際合作。這樣的合作已經在各個論壇中展開。2022年12月,歐盟-美國貿易技術委員會(TTC)的AI標準工作組發布了一份關於可信AI的評估和測量工具以及風險管理的聯合路線圖,呼籲在AI標準上加強國際合作。OECD提供了工具和知識庫,包括AI系統分類框架。國際標準化組織(ISO)也正在進行標準化工作,例如在人工智慧領域的標準化(ISO / IEC JTC 1/SC 42)。這些倡議仍處於路線圖階段,需要各種程序才能實際實施。以下是國際合作的可能未來步驟。
一個相對容易的步驟是在不同國家之間分享人工智慧事件和最佳實踐。像其他領域的法規一樣,人工智慧法規需要基於具體必要性和比例原則來實施,而不是從抽象概念中推導出來。因此,分享AI在哪些領域引起風險的實際案例,以及在克服風險方面有效的技術、組織和社會方法,將成為政策制定者的重要決策工具。例如,全球人工智慧合作夥伴關係(GPAI)是一個多利益相關者倡議,隸屬於OECD,旨在彌合人工智慧理論和實踐之間的差距,正在分析使用氣候變化資料和隱私增強技術的最佳實踐。日本在2022年至2023年擔任GPAI主席,為國際最佳實踐的發展做出貢獻
如果這些最佳實踐可以概括出來,國際標準化可能是下一步。標準將為AI服務提供商提供有關良好AI治理實踐的見解,澄清Category 1國家的監管內容,並為Category 2(以及Category 1)國家的責任和社會評估提供基礎。例如,上述的TTC同意推進標準化,包括(1)共享術語和分類法,(2)可信AI和風險管理工具,以及(3)監測和測量AI風險。在ISO方面,日本已經召集了多個工作小組,包括“基於AI的健康資訊學”(聯合工作小組3)和“用例和出版品”(工作小組4)。
然更具野心的嘗試是實現跨境AI治理交互可操作性。換句話說,可以導入一種機制,使一個國家法規或合約要求的認證(例如安全認證,類型認證)或過程(例如AI影響評估,隱私影響評估)也可以在另一個國家使用。雖然現在討論互操作性的細節還為時尚早,因為每個國家的AI法規尚未得到採納,但有利於促進上述案例分享和標準化,以期在未來實現互操作性。
走向靈活的AI治理
以分享最佳實踐、建立共享標準和確保未來互操作性的形式進行國際合作,似乎是過去在各個領域中重複出現的典型模式。然而,在AI治理領域,需要特別注意一些問題。首先,僅通過政府間合作無法實現充分的AI治理。考慮到AI系統的技術複雜性以及AI對人類自治和經濟(在積極和消極方面)的巨大影響,必須實現多利益相關者合作。利益相關者包括不僅是技術、法律、經濟和管理方面的專家,還包括個人和社區作為AI治理的最終受益者。
其次,考慮到AI技術的演進速度,AI治理方法需要靈活,並需要不斷評估和更新。在更新時,不僅需要考慮現有的法律和指導方針,還需要調整監管體系本身的結構,以滿足實際需求,例如應該提供何種程度的法律和何種指導方針,以應對實際問題。
日本政府稱這種多利益相關者和靈活的治理過程為“靈活治理”,並將其定位為數位化社會的基本政策。經濟產業省在2020年、2021年和2022年發表的三份報告中概述了這一整體概念。在前一節中介紹的日本AI原則實施的治理指南和數字轉型隱私企業治理指南也是基於這一概念。此外,綜上所述的全面性監管改革組織“數字林長”也將靈活治理原則作為其關鍵基礎之一。
「日本政府將這種多方利益相關者和靈活的治理過程稱為“靈活治理”,並將其定位為數位化社會的基本政策。」
由於日本對於AI治理具有清楚且一致的願景以及成功的AI監管改革,加上企業建立良好治理實踐和貢獻標準制定等各種倡議,因此日本在推動G7在良好AI治理方面的合作方面具有良好的前景。
All reactions:
1 share
Like
Comment