香港文匯報(bào)訊 (記者 姜嘉軒)「自主決策AI」與「開(kāi)源AI」的監(jiān)管方向成為全球熱話。有鑒於此,嶺南大學(xué)與意大利博洛尼亞大學(xué)一連兩日(10月25日至26日)合辦「第二屆人工智能治理技術(shù)國(guó)際研討會(huì)」。該研討會(huì)是「第28屆歐洲人工智能大會(huì)」的一部分,匯聚多位世界頂尖專(zhuān)家、學(xué)者與政策制定者,旨在提升AI風(fēng)險(xiǎn)評(píng)估、責(zé)任追蹤及安全保障等方面的監(jiān)測(cè),促進(jìn)亞洲與歐洲在AI治理上的跨區(qū)域交流。兩天活動(dòng)共吸引逾150名學(xué)者和學(xué)生參與。
研討會(huì)於博洛尼亞大學(xué)工程學(xué)院以線上及線下形式進(jìn)行,聚焦三大核心議題,包括「開(kāi)源AI」的治理;「自主決策AI」的風(fēng)險(xiǎn)與治理;以及邁向「以人為本的AI」的技術(shù)。
嶺大副校長(zhǎng)(研究及創(chuàng)新)及唐天燊機(jī)器學(xué)習(xí)講座教授姚新就「開(kāi)源AI治理」發(fā)表專(zhuān)題演講。他指出,人工智能正迅速改變世界,但AI透過(guò)內(nèi)部運(yùn)算所作出的建議或決策,背後原因仍然模糊,業(yè)界有必要透過(guò)技術(shù)提升AI模型的透明度和可解釋性?!肝覀兿M虯I治理的問(wèn)題,將『亞洲觀點(diǎn)』帶入歐洲討論平臺(tái),同時(shí)汲取歐洲的經(jīng)驗(yàn),促進(jìn)全球在AI技術(shù)開(kāi)發(fā)與應(yīng)用方面制定藍(lán)圖。」
IBM研究部(東京)資深技術(shù)人員Takayuki Osogami指出,某些AI系統(tǒng)可以自己做決策、計(jì)劃未來(lái)甚至制定策略,這類(lèi)「自主AI」如果沒(méi)有適當(dāng)規(guī)管,可能帶來(lái)嚴(yán)重風(fēng)險(xiǎn),包括危及人類(lèi)安全或引發(fā)全球性災(zāi)難。他認(rèn)為,目前大部分規(guī)管只看AI的運(yùn)算能力大小,這不足以判斷真正的風(fēng)險(xiǎn)。他建議應(yīng)觀察AI系統(tǒng)「自主行動(dòng)的程度」,即它能自己做多少?zèng)Q策,來(lái)作為評(píng)估風(fēng)險(xiǎn)的指標(biāo),這比單純看它處理的數(shù)據(jù)或環(huán)境更準(zhǔn)確。
歐洲人工智能、數(shù)據(jù)與機(jī)器人協(xié)會(huì)主席 Emanuela Girardi表示,近年出現(xiàn)的「自主決策AI」與「實(shí)體AI」,能在數(shù)碼世界或現(xiàn)實(shí)中自行決策和行動(dòng),帶來(lái)前所未有的管治挑戰(zhàn),更可能引發(fā)多層面的風(fēng)險(xiǎn)。
她舉例指,「自主決策AI」可能採(cǎi)取意想不到的方式完成目標(biāo),甚至透過(guò)心理手法影響用戶;而「實(shí)體AI」則可能出現(xiàn)安全問(wèn)題,從自動(dòng)駕駛汽車(chē)到家用機(jī)械人,一旦出錯(cuò)可能造成傷亡或財(cái)物損失。無(wú)論是AI伴侶可能引發(fā)的心理操控,還是工業(yè)及家居自動(dòng)機(jī)械人的部署,都顯示政府和機(jī)構(gòu)目前仍難以跟上快速發(fā)展的新技術(shù)。她提出,歐洲及全球?qū)用娑夹枰⒖尚械墓苤慰蚣?,確保AI符合人類(lèi)價(jià)值觀並接受有效監(jiān)管。

0 / 255