以東方的哲學來善用西方的科技

軟全球資深副總裁,微軟亞太研發集團主席,微軟亞洲研究院院長洪小文認為「技術都是死的,我們才是製造者與使用者。所謂的 AI 道德,最後反映的是我們的道德,是我們的價值觀。」人工智慧再往前發展,不管進展怎樣、能夠做到什麼程度,它背後的原理永遠是「AI+HI」(人工智慧加人類智慧)。

微軟1998年提出了人工智慧的相關原則(「Responsible AI」),要求以負責任的方式設計人工智慧。其中,最基本的原則就是合法與主權。對數據及人工智慧治理而言,今天很多規則性的內容都會變成將來的法律規範。微軟作為一家跨國公司,在任何國家或地區經營都要保證合法性、尊重其主權。第二是負責,任何技術和產品都有其設計製造者,要對技術和產品的部署和運營承擔責任,包括法律以及社會等各方面的責任。第三是透明,設計製造者要能夠解釋程序如何設計,尤其是數據的收集,更需要透明化。比如當攝像頭被安置在公共場所搜集數據的時候,需要提前告知數據被收集對象,進入數據收集區域其頭像信息可能會被採集。第四是包容,做任何東西都需要考慮到所有的人,也要求我們創造的技術能夠服務每個人,包括少數族群,殘障人士,所以開發這些人工智慧技術的時候需要考慮如何保證它的包容性。第五是隱私與保障,有些人利用互聯網或者 AI 在網路上做一些不道德的事,比如說「黑客」、「釣魚」,對於系統或平台而言,很重要的時要保障用戶不受網路騷擾、身份信息不被竊取,以及避免產生一些實質性的災難;第六是可靠和安全,任何 AI 系統都不可能萬無一失。例如一個 GPS 系統,即使只要有萬分之一的機會把司機引到懸崖,那也是不安全的。所以怎樣做到安全可靠在 AI 領域中非常重要。機器學習都會存在一定誤差。問題在於,存在誤差的時候如何預防風險,如何提供更進一層的安全保障。第七是公平,坦言之很難做到,因為沒有絕對的公平。在現實條件下存在很多偏差或偏見,這些偏見或偏差可能來自數據,可能來自我們的固有認知,可能屬於一種社會偏見,毫無疑問,每個人都存在偏見,問題在於怎樣不把偏見帶到我們所製造的東西里、怎麼樣避免這些偏見。

最後,技術都是死的,我們才是製造者與使用者。所謂的 AI 道德,最後反映的是我們的道德,是我們的價值觀。對於科技工作者而言,需要把正確的價值觀與道德納入技術語言中進行表達,但即使這樣還不夠,還需要跨領域的合作,需要法學家、社會學家、人類學家等都參與進來,才有可能把這個做得盡量完善。

以曾仕強說過的一句話來總結概括:以東方的哲學,來善用西方的科技。