首頁 要聞港聞 中國、台灣兩岸國際新聞 娛樂新聞 體育新聞 即時中港台新聞 即時國際新聞 即時經濟新聞

AI管治碎片化 學者倡全球建框架

2025年10月27日 報章新聞 要聞港聞

【本報訊】人工智能(AI)成為全球熱話,而「自主決策AI」與「開源AI」的監管方向亦值得關注。嶺南大學(嶺大)與意大利博洛尼亞大學早前一連兩日(25日至26日)合辦「第二屆人工智能治理技術國際研討會」,旨在提升AI風險評估、責任追蹤及安全保障等方面的監測,促進亞洲與歐洲在AI治理上的跨區域交流。為期兩天活動共吸引逾150名學者和學生參與,有學者認為歐洲及全球層面都需要建立可行的管治框架,確保AI符合人類價值觀並接受有效監管。

嶺大合辦國際研討會 150人參與

嶺大副校長(研究及創新)及唐天燊機器學習講座教授姚新教授指,人工智能正迅速改變世界,但AI透過內部運算所作出的建議或決策,背後原因仍然模糊,業界有必要透過技術提升AI模型的透明度和可解釋性,監管AI不僅是倫理或法律的問題,更需要利用技術支援監測、審計與問責,推動發展更可靠、可監管的AI系統。

IBM研究部(東京)資深技術人員Takayuki Osogami博士就認為,某些AI系統可以自己做決策、計劃未來甚至制訂策略,這類「自主AI」若無適當規管,可能帶來嚴重風險,包括危及人類安全或引發全球性災難。歐洲人工智能、數據與機器人協會主席 Emanuela Girardi指出,近年出現的「自主決策AI」與「實體AI」,能在數碼世界或現實中自行決策和行動,帶來前所未有的管治挑戰。這些AI系統幾乎毋須人類監督就能運作,遠超現有針對人類操作系統而設的規管範圍,可能引發多層面的風險。

她指目前全球AI管治碎片化、缺乏協調,即使有不少國家推出倫理原則或指引,仍未有具約束力的規管框架。她提出,歐洲及全球層面都需要建立可行的管治框架,確保AI符合人類價值觀並接受有效監管。