2023年8月10日,美國非營利組織Accountable Tech、AI Now研究所和電子隱私信息中心(EPIC)聯合發布了《零信任人工智能治理》的政策建議,旨在限制大型AI公司在監管方面的影響力。該政策建議提出“零信任人工智能治理(Zero Trust AI Governance)”框架的三項首要原則,呼吁立法者重新審視保護法,防止科技公司為牟利而去涉及明確禁止的某些AI領域。元戰略摘編其重要內容,探討未來監管人工智能的最佳方式。
前言
AI的飛速發展、新系統的瘋狂部署以及圍繞AI的炒作,都讓人們對AI改變社會的潛力產生了極大的興趣。但是,我們并沒有走上實現這些美好愿景的道路。AI的發展軌跡正被一些不負責任的大型科技公司間有害的競爭所左右。
(資料圖片僅供參考)
隨著各公司匆忙將不安全的系統推向市場,如輕而易舉散布虛假信息的聊天機器人,并肆無忌憚地將它們整合到旗艦產品和服務中,這場企業爭奪AI霸權地位的斗爭所造成的社會成本已經在不斷增加。近期的危害包括加速選舉中的操縱和詐騙、加劇偏見和歧視、侵犯隱私和自主權等。從中長期來看,更多的系統性威脅迫在眉睫,如高昂的環境成本、大規模的勞動力中斷,以及大型科技公司在整個數字經濟領域權力的進一步鞏固。
行業領袖們在公開呼吁亟需對AI進行監管的同時,也在警告滅頂之災的威脅,同時私下游說反對有意義的問責措施,并繼續發布功能越來越強大的新的AI系統。鑒于事關重大,我們不能盲目相信這些行業領袖。
事實上,通過對美國聯邦政府監管AI的方法進行更深入的研究后,我們發現,這些監管方法一般通過冗長的流程來阻止行動,依賴于過于復雜且難以執行的制度,并將問責的負擔強加給那些已經受到傷害的人。
如果美國聯邦政府不迅速采取行動改變當前的態勢,如大力執行現行法律,最終通過強有力的聯邦隱私立法和反壟斷改革,并頒布強有力的新AI問責措施,那么危害的范圍和嚴重程度就會加劇。如果我們希望AI的未來能夠保護公民權利、推進民主理想并改善人們的生活,我們就必須從根本上進行改變。
原則一:
迅速且有力地執行現有法律
行業領袖們采取了許多策略,在拖延問責的同時,將自己塑造成深思熟慮的形象。他們夸大了人類滅絕的長期威脅,要求美國國會成立一個新機構,并對那些會延緩行動的提案大加贊賞,所有這一切都在使AI競爭愈演愈烈。事實上,人們已經感受到了這些AI系統帶來的具體危害,其發展速度不亞于AI本身。正如聯邦執法機構的官員們所強調的那樣,現有的法律對AI沒有任何約束力。迅速且有力地執行現有法律是減輕自動化危害和阻止魯莽部署不安全系統的非常關鍵的第一步。
1. 執行反歧視法。AI工具不能用于自動化非法歧視,這違反了《民權法》《投票權法》《公平住房法》《平等信用機會法》《公平信用報告法》《同工同酬法》和《美國殘疾人法》等聯邦法規。
2. 執行消費者保護法。美國聯邦貿易委員會(FTC)在保護消費者方面擁有廣泛的法定職責,他們已明確表示,將打擊從自動詐騙、AI工具的虛假宣傳到欺騙性廣告行為和隱私濫用等一切行為。重要的是,他們已采取了新的補救措施,這些措施可以起到威懾作用,比如迫使公司刪除根據不正當數據訓練的算法。
3. 執行競爭法。在AI競爭中,科技巨頭們已經在從事一系列反競爭行為,包括搭售和捆綁、排他性交易、限制性許可和有害的數據收購。雖然美國國會應通過適合數字時代的新反壟斷法,包括在后續章節中概述的那些法律,但美國聯邦貿易委員會和美國司法部(DOJ)應繼續利用其全部權力來對抗這些濫用行為,并應利用其正在進行的合并指南以及美國聯邦貿易委員會的商業監控規則來加強其打擊不公平競爭的力度。
4. 明確美國《通信規范法案》(CDA)第230條的限制,支持原告尋求對各種AI損害的補償。保護數字服務免于承擔第三方內容責任的法律不應保護生成式AI。針對ChatGPT的誹謗案件已經開始審理,更嚴重的案件肯定會接踵而至。想一想一個聊天機器人勸說一名男子自殺的悲劇,或者關于提供致命配方的假設。除CDA第230條外,AI公司還成為高風險版權案件、集體隱私訴訟等案件的目標。雖然棘手的法律問題比比皆是,但政策制定者應尋求機會,在一些案件中提交“法庭之友”(amicus,亦寫作為amici curiae,是指“由于與法院在審案件所涉問題具有利害關系,或者對之有個人見解,且未受到雙方當事人充分代表而自愿或者受到法院邀請向法院提交書面意見的非案件當事人”)的書狀和利益聲明,這些案件將決定未來AI損害的責任以及開發和部署這些系統者的行為。
原則二:
大膽、易于管理、明確的規則是必要的
現在應該很清楚,自我監管將無法避免AI的損害。任何依賴于自愿遵守或以其他方式將關鍵環節外包給行業的監管制度都是如此。這包括主要依賴審計的復雜框架,尤其是第一方(內部)或第二方(簽約供應商)的審計,而大型科技公司已經越來越多地接受了這種審計。這些方法在紙面上可能很有力,但在實踐中,它們往往會進一步賦予行業領域權力,加重小企業的負擔,并削弱監管者正確執行法律條文和精神的能力。
1. 禁止不可接受的AI做法。AI的某些用途從根本上不符合人權,絕不應允許。其中包括:
a.
情緒識別或使用生物識別技術推斷心理狀態
b.
預測性警務
c.
遠程生物識別,包括在公共場所使用面部識別技術
d.
社會評分
e.
全自動招聘或解雇
2. 禁止大部分個人數據的二次使用和第三方披露。美國未能通過全面的聯邦隱私立法,使得建立在監控和剝削基礎上的經濟得以發展。從隱私角度和競爭角度來看,嚴格的“數據最小化原則”(限制企業收集數據以及其數據用途)是解決大型科技公司間有害競爭的最有力工具之一,因為大型科技公司在這一領域的主導地位主要歸功于其龐大的數據優勢。
a.
禁止收集或處理所有敏感數據。正如美國兩黨共同制定的《美國數據隱私保護法》(ADPPA)所定義的,確定超出提供或維護個人所要求的特定產品或服務的嚴格范圍。
b.
禁止在教育、工作場所、住房和招聘中收集或處理生物特征識別數據。
c.
禁止監控廣告。
3. 防止大型科技公司濫用權力扭曲數字市場以及使其之間的AI競爭永久化。云基礎設施供應商作為構建和運營大規模AI的關鍵,最易獲得優勢。而平臺生態系統的所有者則可以利用其數據優勢,在這些系統商業化的過程中攫取租金。結構化干預是防止市場惡性競爭的最佳途徑,因為這些公司在AI系統準備就緒之前就急于將其商業化,而這一切都是為了保持其先發優勢。
a.
禁止占主導地位的云基礎設施供應商擁有大規模商業AI產品或從中獲益。大規模AI模型的訓練和運行需要巨大的算力,而價值5000億美元的云計算市場已被三家科技巨頭占領:亞馬遜、谷歌和微軟。它們既是AI的領導者,又是這些AI系統所依賴的基礎設施的所有者,這種雙重身份本質上是反競爭行為,扭曲了市場激勵機制,并使有害的AI競爭永久化。每家公司都在爭奪霸主地位的同時匆忙推出不安全的AI產品。美國在制定結構化補救措施方面有著悠久的歷史,這些措施將控制關鍵分銷網絡中關鍵基礎設施的公司與依賴這些網絡的業務線分開,包括鐵路、銀行和電信行業。
b.
禁止大型科技公司在商業化AI中自我推薦、拉攏商業合作伙伴或打擊競爭對手。
c.
禁止大型科技公司利用企業用戶的非公開數據進行不公平競爭。
原則三:
在AI系統生命周期的每個階段,科技公司都有責任證明其系統不會造成危害
行業領袖們已經采取了一系列自愿措施,以表明對AI關鍵倫理原則的承諾。但他們也削減了AI倫理團隊,無視內部警報,在對AI的惡性競爭時放棄了透明度,并試圖將責任推卸給下游用戶和民間社會。與其依賴科技公司的善意,讓資源不足的執法機構或受影響的用戶證明和預防危害或依賴上市后的審計,科技公司更應該證明其AI產品不會造成危害。
有用的推論:
以往是如何監管其他領域的高風險產品?
鑒于先進的AI系統具有廣泛的社會影響,根據其制造商的說法,這些系統可能會在短期內造成廣泛的危害,并在長期內帶來生存風險,因此考慮如何監管類似的高風險產品是非常有益的。新藥上市的開發和審批過程對此非常具有啟發性。
制藥公司每年在研發上花費數十億美元,篩選成千上萬的化合物,以確定少數有前景的候選藥物進行臨床前研究,其中包括美國食品藥品監督管理局(FDA)批準的動物試驗,以及藥物成分和安全性的大量文件。有了這些研究和潛在臨床試驗的詳細方案,制藥公司就可以向FDA提交研究申請。如果獲得批準,制藥公司就會開始三個密集臨床試驗階段中的第一個階段,之后他們就可以提交正式申請,將藥物推向市場。如果FDA決定繼續推進,審查小組就會對所有研究進行評估,以確定藥物對其預期用途是否安全有效。獲得批準的藥物大約1/10進入臨床試驗,隨后要接受FDA的醫療器械標簽、上市后監測、副作用披露等要求。此外,任何重大變更都需要補充申請FDA的批準。
在藥物開發過程的每個階段,制藥公司都必須遵守明確的規則和FDA的標準,進行廣泛的測試以識別和考慮所有可預見的風險,并向監管機構展示他們的工作。制藥公司必須向其產品的部署者(處方者)和最終用戶(患者)提供有關適當用法和潛在不良反應的明確信息。制藥公司要對因未能履行這些職責而造成的傷害承擔責任,但不包括因處方者的疏忽或患者的濫用而造成的傷害。
這并不是在呼吁建立一個新的“AI食品藥品監督管理局”,也不是為AI治理開出的一對一的處方,AI治理必須更快、更靈活,但新藥上市的開發和審批過程是一個非常有用的參考。同樣,大規模AI模型和自動決策系統也應遵守一套嚴格的部署前要求。
1. 評估和記錄的具體標準必然會因AI的類型和成熟度而異。舉例來說,一個旨在識別疾病早期征兆的AI工具、一個用于篩選求職者的自動化系統、一個通用的大語言模型,這些AI產品都有可能造成嚴重危害。因此,在部署前必須對其進行證明,這些AI產品帶來風險的性質各不相同,需要進行的測試也大相徑庭。
2. 盡管評估每個系統的標準各異,但必須普遍堅持一些核心的AI倫理原則。例如,最近制定的《人工智能權利法案藍圖》概述了五類核心保護措施,為使用AI提供了清晰的路線圖:建立安全和有效的系統;避免算法歧視,以公平的方式使用和設計系統;保護數據隱私;系統的通知和解釋要清晰、及時和可訪問;設計自動系統失敗時使用的替代方案、考慮因素和退出機制。這些要求是底線,而不是上限,所有AI都可以且應該遵守這些原則,盡管不同的系統遵守這些原則的情況會有所不同。
3. 應要求科技公司根據其在供應鏈中的角色,在開發的各個階段積極證明其遵守法律。這應包括記錄公司確定合理的可預見危害的流程,以及在可能的情況下如何減輕危害的建議。鑒于AI市場上虛假或夸大宣傳的情況層出不窮,科技公司還必須證明系統能按預期(和宣傳)運行。監管機構還可能要求在批準前進行額外的測試、檢查、披露或修改。在獲得批準后,應在聯邦數據庫中公布該AI系統所有的公開版本文件。
部署后的要求應包括:
1. 持續的風險監控,包括通過年度民權和數據隱私影響評估,由具有完整的應用程序編程接口(API)和數據訪問權限的第三方進行獨立審計,并要求為用戶建立有效的投訴機制,并迅速報告已發現的任何嚴重風險。
2. 在用戶使用AI系統時主動通知用戶,告知其預期用途,并向用戶提供易于獲取的AI系統主要參數解釋,以及任何退出機制或可用的人工替代方案。
3. 生成式AI的具體要求,包括:
a.
遵守新的出處、真實性和披露標準。雖然這遠不是解決生成式AI對信息和新聞生態系統造成全面危害的靈丹妙藥,但建立有效、可互操作的標準來認證AI生成或操縱的媒體來源和真實性,可以增加有助于保護消費者和內容創作者的關鍵背景。
b.
明確禁止某些不可接受的用途。例如未經同意傳播深度偽造的圖像;故意欺騙他人,意圖阻礙其行使投票權;或冒充他人并以其假定的身份行事,意圖獲取利益或傷害、詐騙他人。
結語
長期以來,我們錯信了大型科技公司的自我監管,誤以為技術進步就是社會進步,對不斷升級的危害視而不見。在我們應對不斷演變的威脅時,“零信任人工智能治理”框架是一個必要的路線修正,這個框架提供了我們所需的基線,以促進健康的創新,并確保下一代技術服務于更大的利益。
責任編輯:房家輝
分享到:版權聲明:凡注明來源“流媒體網”的文章,版權均屬流媒體網所有,轉載需注明出處。非本站出處的文章為轉載,觀點供業內參考,不代表本站觀點。文中圖片均來源于網絡收集整理,僅供學習交流,版權歸原作者所有。如涉及侵權,請及時聯系我們刪除!關鍵詞: