隨著企業將更多機器學習和人工智能模型投入生產,人們越來越意識到自己的系統存在偏見。這種偏見不僅可能導致AI系統做出更糟糕的決定,還可能使運行AI系統的組織陷入法律危機。偏見可以滲透到應用于各種行業的AI系統中。
哈佛大學和埃森哲公司在去年發布的一份報告中展示了算法偏見如何潛入人力資源部門的招聘流程。在2021年的聯合報告《隱藏的員工:未開發的人才》中,不當的職位描述和嚴重依賴算法進行招聘廣告發布和簡歷評估的自動化招聘系統,是怎樣阻止合格的個人找到工作。
偏見導致了兩個最壞情況。盡管企業在技術上花費了大量金錢,系統仍固守著以往錯誤的做法,而且效率更高,結果更差。
警務是另一個容易因算法偏見而產生意外后果的領域。某些警務預測產品被證明對特定社區的犯罪預測和種族之間存在顯著的相關性,這種流行的預測性警務產品可能對少數族裔存在偏見。研究發現在美國,居住在一個地區的白人居民越少,而居住在那里的黑人和拉丁裔居民越多,該產品預測發生犯罪的可能性就越大。同樣的差距也存在于富裕和貧困社區之間。
DataRobot在一項針對美國和英國各行業350家機構的調查中,超過一半的機構表示,他們非常擔心人工智能偏見可能會傷害他們的客戶和自己。
該調查顯示,54%的美國受訪者表示,對其組織中人工智能偏見的潛在危害感到“非常擔憂”或“深感擔憂”。而在2019年進行的一項類似研究中持相同觀點的人占42%。調查顯示,他們的英國同事對人工智能的偏見懷疑態度更深,64%的人表示他們也有這種看法。
而調查中超過三分之一(36%)的受訪者說,他們的組織已經因AI偏見受到影響,收入損失和失去客戶是最常見的后果。
消費者信任的喪失被認為是人工智能偏見的第一大潛在風險,56%的受訪者提到了這一風險因素,其次是品牌聲譽受損、監管審查增加、員工信任的喪失、與個人道德不符、訴訟和股票價值的下降。
雖然有四分之三的受訪機構稱計劃對AI偏見進行檢測,約四分之一的組織說他們“非常有信心”有能力來檢測AI偏見。
受訪者列舉了消除偏見的幾個具體挑戰,包括:難以理解人工智能模型為什么會做出決定;理解輸入值和模型決策之間的模式;對算法缺乏信任;訓練數據的清晰性;保持AI模型的動態更新;教育利益相關者識別人工智能偏見;以及也不清楚什么是偏見。
那么,如何解決人工智能中的偏見問題呢?首先,81%的受訪者表示,他們認為“政府監管將有助于定義和防止人工智能偏見。”該調查稱,在沒有政府監管的情況下,約三分之一的人擔心人工智能“會傷害用戶”。但同時45%的受訪者表示,他們擔心政府監管會增加成本,使采用人工智能變得更加困難。只有約23%的人表示,他們不擔心政府對人工智能的監管。
總而言之,在人工智能的偏見問題上,似乎正處于十字路口。隨著采用人工智能日益被視為現代企業的必備條件,采用這項技術的壓力相當大。企業越來越擔心人工智能帶來的意外后果,尤其是在道德方面。
人工智能領域的從業者需要了解并理解人工智能和道德的重要性和影響。消除偏見的核心挑戰是理解為什么算法會首先做出這樣的決定。在應對人工智能偏見和隨之而來的復雜問題時,需要規則和條例來指導。如今,國際組織和產業巨頭已經開始研究人工智能原則和法規,但要確保模型公平、可信和可解釋,還有更多工作要做。