精品国产av一区二区三区,国产av一区二区三区,丰满少妇大乳高潮在线,9lporm自拍视频区九色

當前位置:首頁 > 最新資訊 > 行業資訊

如何開發負責任的人工智能框架

與2018年生效的歐洲強有力的數據保護和隱私規則GDPR相比,如今的公司對即將出臺的人工智能法規更加了解。但根據埃森哲的一份新報告,他們還遠遠沒有做好準備。

盡管大多數接受調查的公司都非常清楚負責任地使用人工智能的重要性,但“他們中的大多數人已經建立了一套原則,但還沒有設法在整個企業中實施,”Ray說埃森哲負責任人工智能全球負責人Eitel-Porter在接受AIBusiness采訪時表示。

他說,現在是采取行動的時候了,因為在整個企業中建立一個有效的框架可能需要數年而不是數月。

好消息是,根據對20個行業17個地區的850名高管的調查,80%的公司表示他們已將10%的人工智能技術預算用于負責任的人工智能,而45%的公司已預留20%。“這是一個非常嚴肅的承諾,”Eitel-Porter說。

他說,重要的是,已經建立風險管理結構的公司不必從頭開始構建負責任的人工智能。

如何開發負責任的人工智能框架

  設置“偏差”閾值

負責任的人工智能是設計和開發符合道德并支持組織和社會所珍視的原則的人工智能模型的實踐。Eitel-Porter說,雖然不同的實體可能在核心價值觀上存在差異,但社會普遍對什么是使用人工智能的道德和以人為本的方式有“相當強烈的”共同看法。

值得注意的是,負責任的人工智能需要整個企業的參與。這不僅適用于技術人員。為什么?Eitel-Porter解釋說,雖然數據科學家確實為準備好訓練數據做了繁重的工作,但有些問題只有業務方才能回答。

一個例子是設置可以容忍的最小偏差閾值:是10%?15%?20%?在哪里設置偏差(或錯誤)閾值是一項業務決策。

大多數人的直覺反應是根本不應該有偏見。但這可能會導致結果不準確。“在大多數情況下,都會在準確性和偏差之間進行權衡,”Eitel-Porter說。“如果我們消除所有偏見,我們經常會做出不準確的預測。”

讓我們考慮一下吉爾,她的信用評分很低,因為她有償還貸款或按時付款的麻煩。她申請了貸款,在所有其他條件相同的情況下,這意味著她有更高的可能性會再次違約或延遲還款。將吉爾與信用評分高的瑪麗置于同等地位——零偏見,所有其他條件相同——可能會導致對吉爾是否會償還貸款的錯誤預測。

  解決數據集中的空白

一旦設置了錯誤閾值,人工智能模型就會使用歷史數據進行測試。包含所有公司客戶的數據集被分成組并應用模型。所有組的錯誤率應該相當一致。如果一組高于其他組,“從數學上講,我們的模型在這組中效果不佳,”Eitel-Porter說。

但是,測試AI模型是否存在偏差的挑戰之一是數據集中的差距。例如,一家銀行可能想要測試其AI模型是否歧視某個種族。但它的內部數據庫中沒有種族信息,因為它沒有向賬戶持有人詢問。因此,銀行無法使用自己的數據集檢查偏差。

Eitel-Porter表示,英國的金融服務監管機構和學術團體正在合作開發一個公開可用的數據集,其中包括種族和性別等所謂的“受保護”特征,并將提供給公司測試他們的人工智能模型。所有個人身份信息(PII)都將被刪除,因此數據無法追蹤到個人。

  創建框架

許多公司可以闡明他們的核心原則并在他們的網站上列出它們,但“這并不意味著任何人對它們采取任何行動,”Eitel-Porter說。治理框架可確保人們尊重這些原則。

這是埃森哲基于與客戶互動開發負責任人工智能的框架。Eitel-Porter表示,橫向類別是應該成為實施負責任人工智能核心要素的四大支柱:原則和治理、風險、政策和控制、技術和促成因素、培訓和文化。

  如何閱讀圖表

從原則和治理開始。為了使人們堅持這些核心信念,在確定檢查點并確保合規性時,請參閱第二列“風險、政策和控制”。要使實施成功,請閱讀第三列“技術和推動因素”。Eitel-Porter說,該公司的數據科學家應該在與負責任的人工智能相關的主題方面擁有經驗和培訓,例如避免偏見。

第三方工具也可從超大規模企業或數據中心巨頭(如AWS和Azure)以及專有和開源中獲得。

第四個支柱是培訓和文化,公司確??绮块T的人員了解他們是解決方案的一部分,無論他們是在客戶服務、法律、人力資源還是其他部門。

垂直類別——審計和評估、定義、工業化、維持——幫助公司弄清楚他們在流程中的位置、仍然需要什么、如何填補這些空白以及如何維持系統。

猜你喜歡