其實 Google 針對發展人工智慧的風險的部分也並非光說不練。近日主動發出了一篇專文,提出了他們建議發展 AI 人工智慧的全新框架 Secure AI Framework(簡稱 SAIF)。無論你是公開或是私下進行訓練的 AI 系統,都希望能進一步讓大家都能使 AI「負起責任來」打造預設狀態下就已足夠安全的 AI 系統。繼續閱讀 Google 揭露保護人類不受 AI 威脅的 6 個核心關鍵,提供發展人工智慧的 SAIF 框架原則報導內文。
▲本篇圖片來源:Google
Google 揭露保護人類不受 AI 威脅的 6 個核心關鍵,提供發展人工智慧的 SAIF 框架原則
即便在 ChatGPT 突然爆紅的前後期看來,Google 感覺有點像是 Elon Musk 那樣,一邊叫說 AI 很可怕可能造成滅絕要大家緩一緩,另一邊卻又在開發自己的生成式 AI。
不過在端出了自己的 Bard AI 之後,其實 Google 針對發展人工智慧的風險的部分也並非光說不練。近日主動發出了一篇專文,提出了他們建議發展 AI 人工智慧的全新框架 Secure AI Framework(簡稱 SAIF)。無論你是公開或是私下進行訓練的 AI 系統,都希望能進一步讓大家都能「負起責任來」打造預設狀態下就已相當安全的 AI 系統。
Google 對此提供了 Secure AI Framework 的 6 個核心元素,包括:
1. Expand strong security foundations to the AI ecosystem(將強大的安全基礎建構於 AI 生態系統)
2. Extend detection and response to bring AI into an organization’s threat universe(擴展檢測和回應能力,將 AI 納入組織所具備威脅情境範圍內)
3. Automate defenses to keep pace with existing and new threats(能應付現有與新威脅的自動化防禦機制)
4. Harmonize platform level controls to ensure consistent security across the organization(能協調平台級的管制確保組織內的安全保護一致)
5. Adapt controls to adjust mitigations and create faster feedback loops for AI deployment(調整控制措施來調節風險並為 AI 部署建立更快的回應流程)
6. Contextualize AI system risks in surrounding business processes(為環繞業務的流程建構 AI 系統風險的前後背景)
嗯,如果你看到這篇期待的是「機器人三大法則」這種很好懂的原則的話,相信你現在已經頭昏眼花。不過這幾個 core elements 還是有一定的邏輯可循的。
簡單的講,前面兩項主要是把焦點鎖定在加強擴展現有組織的安全框架來對應 AI 的可能威脅。接下來則是希望導入自動化機制來更彈性對應現有以及未知的威脅。並且嘗試確保這些機制的一致性,然後最終就是希望能確保效率以及面臨攻擊時不會毫無預警無法分析問題。
Google 除了在頁面上已經提供了如何導入 SAIF 的相關資訊。更宣告將會開始與組織直接合作導入相關的措施。還擴展了他們除錯的相關獎勵計劃等。
其實光是在目前,就已經有不少嘗試侵入破解 AI 語言模型技術的相關技術正在進行當中 – 包括用誘導來讓語言模型洩密、以數據資料來導致系統訓練出錯等。
若是各組織分頭努力卻沒能提供相當的防護機制的話。姑且不論 AI 會不會發展到像魔鬼終結者那樣的程度。光是掌握某些關鍵建設的 AI 如果被破解出錯導致停擺,其實也就會造成相當程度的災害了。
所以 Google 跳出來嘗試打造可以遵循的框架,真的是拿出了對此的實際作為。希望這樣也能真的帶動,讓急於發展生成式 AI 的各方,至少能有相當程度的資訊安全防護的基礎可供依循了。