在企業(yè)中推動文明人工智能的六個建議
利用設計思維
埃森哲峽灣設計咨詢公司的董事總經理Shelley Evenson表示,無論公司是在內部創(chuàng)建人工智能還是購買商業(yè)工具,它們都應該使用設計思維來打造解決方案,因為這有助于解決算法中可能存在的偏差。雖然使用天氣和社交媒體方面的征兆來預測銷量或產品需求的內部應用程序沒什么危害,至少沒有那些能對員工和客戶產生直接影響的征兆危害那么大,為設計技術的過程著想是一個很好的方法。
利用技術消除偏見
企業(yè)人工智能開發(fā)人員還必須接受培訓,以測試和修復無意中將夾帶了偏見的系統(tǒng),這些偏見使用戶或其他受影響的各方受到不公平的待遇。公司還可以利用各種工具來檢測數據變量與敏感變量(如年齡、性別或種族)相關聯的工具,以及評估和解釋機器學習算法是如何生成輸出結果的方法。例如,Srivistava表示公司可以將數字“面包屑”插入算法中,從而跟蹤決策過程。
對人工智能的使用保持透明
只要對人工智能的使用持公開透明的態(tài)度,公司就可以與利益相關者建立互信的關系。例如,Schatsky說,智能體應該將自身當成人類,不是偽裝成人類(如今很多聊天機器人仍在模仿人類)。公司還應披露對客戶造成影響的自動決策系統(tǒng)的使用。在可能的情況下,公司應該清楚地對這一切做出解釋:它們收集哪些數據,他們使用這些數據來干什么,以及這些用法會對客戶形成怎樣的影響?。
緩解員工對失業(yè)的焦慮
人工智能將在多大程度上引發(fā)失業(yè)或改變工作,這目前尚不清楚,但公司應該開始對員工展開教育,讓他們知道自己的工作可能會發(fā)生怎樣的變化,并建議他們采取各種提升技能的方法,從而與時俱進。這包括對工人進行再培訓,因為他們的所做的事情將被自動化——或給他們時間尋找新的工作。例如,由于機器人過程自動化(RPA)漸漸開始處理低級的任務,保險公司State Auto正在訓練員工處理更復雜的理賠工作。
最重要的因素
Schatsky說,這一切都不容易,主要是因為人們沒有在某些情況下或與某些利益相關者就道德標準達成充分的共識。Schatsky說,無論采用何種方法,企業(yè)要采取行動而不是“等待人工智能相關法規(guī)出臺”,這才是明智之舉。
政府正朝著這個方向努力。歐盟委員會于4月就組織應如何開發(fā)人工智能(AI)的道德應用發(fā)布了一系列指導方針。兩天后,美國政府提出了《2019年的算法責任法案(Algorithmic Accountability Act)》,以處理高風險的人工智能系統(tǒng),例如能根據敏感的個人數據檢測人臉或做出重要決策的技術。
無論監(jiān)管在未來會是什么樣子,首席信息官尚有時間來解決問題。目前,由于數據匱乏,而且數據質量有問題,企業(yè)人工智能的采用受到阻礙;機器學習建模師、數據科學家和其它領域的人工智能專家十分稀缺;結果十分不確定;當然,O’Reilly的一項調查指出,還有各種道德問題和偏見。
O'Reilly發(fā)現,金融服務、醫(yī)療和教育部門占采用人工智能的企業(yè)的58%,而電信、媒體以及娛樂業(yè)、政府機構、制造業(yè)和零售企業(yè)各占4%。

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
10月23日火熱報名中>> 2025是德科技創(chuàng)新技術峰會
-
10月23日立即報名>> Works With 開發(fā)者大會深圳站
-
10月24日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯網行業(yè)年度評選
-
11月27日立即報名>> 【工程師系列】汽車電子技術在線大會
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯網產業(yè)大會
-
精彩回顧立即查看>> 【限時福利】TE 2025國際物聯網展·深圳站