AI技術有好壞?曠視COO徐雲程:善惡應放在具體場景討論
2020年07月11日18:06

原標題:AI技術有好壞?曠視COO徐雲程:善惡應放在具體場景討論

算法偏見、算法歧視、隱私安全,人工智能技術,尤其是計算機視覺領域,帶來的社會爭議會更容易被公眾所關注。海外,受黑人弗洛伊德事件影響,微軟、IBM等公司都紛紛宣佈暫停人臉識別相關的業務。一些民間組織,專業團體甚至呼籲政府禁止使用人臉識別。

人工智能技術帶來高效和便利,也帶來了一系列治理問題。在7月10日召開的第三屆世界人工智能大會(WAIC)“人工智能治理論壇”上 ,眾多科學家、企業家就圍繞AI治理問題展開了討論。

在本次論壇上,曠視聯合創始人兼CEO印奇在演講時提到,從企業發展的角度來看,負責任的AI就是可持續發展的AI。AI治理問題其實是一個非常長期的問題,只有更多的企業從實踐角度提出更好的問題,才能讓我們的行業專家、學者教授和宏觀政策的製定者們能夠有一個更具針對性的研究方向和更切實際的措施落地指引。

針對近期人臉識別技術在國內外引發的爭議,以及如何保護用戶隱私安全等問題,曠視首席運營官、AI治理研究院院長徐雲程接受了澎湃新聞(www.thepaper.cn)等媒體的採訪。

曠視COO徐雲程

技術的善惡應放在具體場景討論

作為國內視覺計算領域里的明星企業,曠視是國內較早注意到AI治理問題的公司之一。2019年7月,曠視對外發佈了《人工智能應用準則》,為企業的AI治理指明了行動方向。隨後曠視成立了“人工智能道德委員會”,開啟了企業AI治理的機製建設。2020年1月,曠視成立了“AI治理研究院”,向社會發佈2019年《全球十大AI治理事件》,與社會各界探討AI治理的方向與界限,並開始與各界機構探討聯合研究課題。

針對微軟、IBM、亞馬遜等海外公司紛紛暫停人臉識別相關業務,以及人臉識別技術引發的爭議,徐雲程認為任何一項技術或的使用都要放到相應的場景下去討論,脫離場景去討論技術的對錯或善惡都是不恰當的。就拿人臉識別技術來說,將其用在尋找走失兒童和老人的場景里,技術的優越性就能很好地體現。 “大家有時候覺得技術讓人不太舒服,是因為它解決的不是痛點,同時也要兼顧到公正性、公平心、隱私和數據保護等更多方面來綜合考慮。”徐雲程說。

其次,徐雲程認為,不管人工智能技術還是其它先進技術,都要有界限,這就是人工智能治理的作用。“這些考量點會使得技術無論在研發階段,還是將來產品化的時候,必須有一些考量因素要前置。同時,在人工智能領域一直有一個觀點,必需要邊發展邊治理。”徐雲程稱。

企業如何參與AI治理

“春江水暖鴨先知。在這樣一個領域中,面對各種各樣產業發展中的問題、挑戰和思考,曠視是屬於在前沿探索的先行者。”徐雲程稱。

回顧曠視過去一年多的AI治理曆程,徐雲程表示,我們還處在“學生”狀態。她將曠視參與AI治理的過程分為三個階段。

第一階段是學習和瞭解。在這個階段里,AI治理是以高管團隊驅動的、自上而下的過程。

第二階段是廣泛和外部專家、機構學習溝通的階段。這時候,曠視學習到很多外部的思想和做法,並與各界開展了深入的交流和討論,收穫良多。

第三階段是AI治理在企業內部逐漸成為共識,既有自上而下的推動,又有自下而上的交流。從曠視內部實施結果來看,已初見成效。徐雲程舉了一個小例子,現在曠視的產品經理在產品預研階段,就會主動找到AI治理團隊來討論產品是否符合公司AI倫理的應用準則, 從而在流程上形成了規範。

從曠視角度來看,企業重視AI治理的投入勢必會增加運營成本,對於大部分尚處創業早期的企業來說,做到這一點並不容易。另外,AI治理是個長期過程,治理帶來的回報並不會立竿見影。

徐雲程認為,企業現階段急迫需要解決的是讓自律變得更加主動一些,AI治理是一項長期的事業,要上升到公司戰略的高度;同時,企業AI治理的成本是不可避免的,要麼事先投入進行預防,要麼事後吸取教訓進行補救,對此企業需做好充分的心理準備。

關注我們Facebook專頁
    相關新聞
      更多瀏覽