【
儀表網 儀表下游】導讀:AI技術發展中出現的諸多公平性問題,其實是映射了人類社會中本已存在的歧視和偏見。
2014年,亞馬遜公司啟動了一個通過AI技術開展自動化招聘的項目。這個項目完全基于求職者簡歷提供的信息,通過AI算法進行評級。然而,第二年亞馬遜便意識到這個機器腦瓜并不像想象中那樣公平公正——它似乎在歧視女性!當一份簡歷中出現“women”等字眼時,在打分上就會吃虧。
AI的公平性問題,本質上并非來源于技術本身,而是來自人心,也就是說,其本源是社會的公平性。AI技術從算法和系統的設計,走向社會的應用實踐,這個過程涉及方方面面的人,在很多環節,都有可能有意或無意地引入歧視和偏見。
除了不同人群間的公平問題,AI公平還涉及到開發者和使用者之間的不平等問題。大量
APP在使用時會出現一個“知情同意”的選項,這個知情同意書往往少則上千字,多則上萬字,大量的信息讓消費者無力長時間閱讀,只好選擇同意,否則只能退出。
總體來講,AI技術的高度發展對公平性的提升是有利的。首先在技術的加持下,教育、醫療等重大領域在資源供給的數量和質量上都會有極大提升,供給側的繁榮有助于緩解社會資源分配不均;其次,隨著大數據的連接,人們有機會在全局層面上提煉主要矛盾,探討公平問題,進而達成社會共識。
人工智能是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。人工智能是計算機科學的一個分支,它企圖了解智能的實質,并生產出一種新的能以人類智能相似的方式做出反應的智能機器,該領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統等。人工智能從誕生以來,理論和技術日益成熟,應用領域也不斷擴大,可以設想,未來人工智能帶來的科技產品,將會是人類智慧的“容器”。人工智能可以對人的意識、思維的信息過程的模擬。人工智能不是人的智能,但能像人那樣思考、也可能超過人的智能。
作為AI從業者、開發者、運營者的我們,一定要意識到:我們所開發的AI既可能被用來促進社會公平和消除歧視,也有可能被濫用,甚至助紂為虐。
人們開發了很多工具,包括分析數據集形態和質量的工具,能讓開發者、工程師清楚地看到他們用于訓練的數據特征的分布,比如性別、年齡等等,至少要滿足統計學意義上的合理分布,從而減少潛在的偏見;還有分析算法模型的工具,可以對模型的公平性進行評估,并做出相應糾偏和優化;此外還有幫助開發者對決定模型輸出的關鍵數據特征進行探索的工具;以及公平性約束條件下的算法訓練工具等。
AI公平性的一個重要方向是數據的可獲得性和可使用性。就AI技術立法問題而言,法律既要解決形式上的公平、機會上的公平和程序上的公平,還要實現形式公平和實質公平的統一。應在時機成熟的時候推出綜合立法。在這個過程中,既要考慮對個人數據的保護,也要考慮保護和創新之間如何形成平衡。
所有評論僅代表網友意見,與本站立場無關。