嶺大教授談AI倫理 倡覓「折中方案」

版次:A08来源:香港商报    2025年08月15日

嶺南大學副校長(研究及創新)及唐天燊機器學習講座教授姚新。 受訪者供圖

當人工智能走進日常生活,它帶來的倫理與監管話題變得真實而尖銳:效率與公平如何兼得?安全與隱私如何平衡?中國企業又該如何在全球不同監管體系間找到生存空間?香港嶺南大學副校長(研究及創新)及唐天燊機器學習講座教授姚新直言——AI倫理不是哲學家的閉門討論,而是技術、法律、市場與文化的多方博弈,其中的關鍵在於找到可行的「折中方案」。

「如今我們都在算法中」

「如今AI倫理的所有話題,十年前已存在,但深度不同了。」姚新說,過去人工智能更多服務於工業生產,而現在它滲透到每個人的日常生活——從看新聞到點外賣,都繞不開推薦算法。

公眾的關切也在變化。十年前,人們更關注效率;現在,大模型的高能耗、隱私安全、算法偏見等議題被頻頻提起。

「十年前大部分人都不知道大型模型的耗電能力巨大,現在甚至有AI開發商需要自建電廠。並且大眾以往普遍關心隱私和安全問題,還沒有意識到算法公平與透明。如今AI應用無孔不入,用戶都可能在不知不覺中受到系統偏見影響。」姚新稱。

多維倫理與折中方案

AI倫理是對人工智能在設計、開發、部署和使用過程中應遵循的道德原則與價值觀的探討。姚新認為AI倫理不是純粹的哲學問題或理工科問題,應將其視為多學科議題。

「倫理從來不是單一維度的,它是多目標折中的挑戰。」其核心關注點包括公平性與非歧視、透明性與可解釋性、責任歸屬、人類控制,數據隱私與安全等,而這些目標往往有可能相互衝突。

他舉了個例子:目前的技術水平下,人臉識別系統的精度在不同人群間存在差異——膚色淺的人識別精度高,膚色深的人識別精度略差一點。如果只追求極致精度,公平性會被削弱;但若追求絕對公平,精度又會下降。

「放在現實應用中,這就會是一個比較敏感的問題。想像一下在過關的時候,膚色淺的A一秒鐘就能識別通過,但膚色較深的B需要兩秒鐘,這似乎不太對。業界想追求極致的準確,但也不希望某些人群感到被差別對待,這就是折中挑戰。」

在姚新的學術經驗裏,「折中」不是妥協,而是基於演化算法的最優平衡——在有限資源和衝突目標下,找到多方都能接受的解決路徑。

全球監管的多維博弈

如果說AI倫理是多目標衝突,那麼AI監管就是多角色博弈。姚新直言,「不能用傳統工業的標準來看AI行業,它迭代之快、變化之大,是以前沒見過的。」

他認為,各國在價值層面形成了基本共識——技術要為人類服務,重視公平、安全、隱私等,「哪怕在表述上都一致」。但文化差異、技術發展階段不同,使得監管路徑各異、對人工智能的倫理審查標準不一。

據了解,歐盟以立法為先,2024年《人工智能法案》(AI ACT)生效,對企業使用個人數據進行算法訓練等行為進行執法監管。美國尚未出台聯邦層面的綜合性立法,但通過行政命令、技術標準和行業自律多管齊下。中國則是政策引導與產業自律並行,兼顧技術創新與社會穩定。

對中國企業而言,目前沒有一個「通用解」。姚新表示,與其試圖找到一個全球統一的AI監管方案,針對不同市場定制多套方案,既滿足本地監管,也順應當地文化與用戶期待,對於業界來說是更實際的做法。

培養有「倫理意識」的技術人

「很多技術人覺得倫理離自己很遠,但我最想改變的就是這個想法。」姚新強調,哪怕不做AI倫理研究,技術人也必須有這方面的意識,在日常開發中考慮安全、隱私、透明與公平等因素。

為此,嶺南大學近年來率先布局AI與教育的深度融合。作為數字化文理融合型大學,嶺大擁有多位專注倫理研究的哲學教授,近年來已將研究視野拓展至AI倫理領域。姚新希望,不同專業的學生都具備AI倫理意識,這樣無論進入技術、法律還是管理崗位,都能在第一時間發現並規避風險,並在各自領域推動相應的應對手段落地。

AI將向「主動系統」演進

談及未來,姚新提醒,AI正在悄悄改變人類的行為模式。過去我們認為人是主體、AI是被動工具,但未來AI可能成為「主動系統」,能夠主動與人交流、做出決策。

「這意味着,整個社會必須確保它朝正確的方向發展,並避免引發新的風險。這不是技術人一方能解決的,需要全社會的協作。」

從公平與效率的拉扯,到全球監管的差異化路徑,姚新的關鍵詞始終是「折中」。在他看來,這不是退讓,而是技術與倫理、市場與監管之間的一種智慧平衡。未來,隨着AI從「被動工具」向「主動系統」演進,這種平衡的藝術將愈發重要,也將考驗每一個參與者的智慧與擔當。

香港商報記者 楊琪

作者: