突破論壇》AI會害人?專家揭4大風險 現行3解方「可能沒什麼用」

2023-12-03 09:20 admin


安侯建業(KPMG)顧問部數位創新服務副總經理李祖康2日下午出席長風基金會舉辦「全球啟動AI風險控管:台灣怎麼管?誰來管?」突破論壇。(鍾秉哲攝)

生成式人工智慧(AIGC)近年出現突破性發展,為科技發展進程投下震撼彈,也透過各種層面的運用影響人類社會及生活模式,但在AI飛速發展並頻繁受用的同時,卻也悄無聲息的埋下不少風險。長風基金會2日下午舉辦2023突破論壇,以「全球啟動AI風險控管:台灣怎麼管?誰來管?」為題,邀請相關領域專家,探討AI發展的風險,以及如何既鼓勵創新,又能有效保護使用者。

溫怡玲指出,探討AI時千萬不要只從技術層面討論,接下來的重點是應用,如在金融、教育或在環境保護、社會責任及公司治理(ESG)上如何應用。AI構成有3大構成要素,台灣其實沒有真正的AI供應鏈,因為台灣只有算力,如輝達(NVIDIA)的重心也在算力,台灣缺乏模型、數據等要件。

人工智慧科技基金會執行長溫怡玲(左)指出,台灣其實不具備完整的AI產業鏈,只有算力,缺乏模型、數據等要件。(鍾秉哲攝)

溫怡玲續指,儘管我國在AI擁有要素的是算力,但台灣在算力的資源也不夠,甚至花錢也買不到,因為產能都被國外其他大國買去,如輝達算力資源出售最多的國家是沙烏地阿拉伯;而在模型的數據上,台灣更是嚴重不足,以繁體中文的數據集為例,簡體中文是繁中的2000倍,數據不夠的問題必須要解決。

分析AI發展4大風險 溫怡玲曝3解方:但可能沒什麼用

針對AI模型不透明造成的風險,溫怡玲解釋,這可能使得AI工具的輸出結果難以理解或解釋,進一步導致結果偏差或不可預測;而AI自主性過高,可能導致在缺乏人類的監督下,偏離原訂目標造成無法預期的影響;安全隱私部分,因AI系統可能成為駭客攻擊目標,或使大量個人數據使用的資料外洩。

溫怡玲提到,目前AI發展可能造成的負面影響與問題,包括倫理和法律問題、失業和社會不平等,以及造成數據隱私和安全性都出問題,而現在可行的改善措施,如增加開發的多樣性和包容性,以及減少偏見和歧視風險、並制定道德準則,只能引導AI發展與應用,教育與宣傳也有必要,但這些也可能沒什麼用。

引述報告指AI風險被低估 李祖康:恐難掌握「黑箱模型」問題

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

標題:突破論壇》AI會害人?專家揭4大風險 現行3解方「可能沒什麼用」

地址:https://www.sgitmedia.com/article/17015.html

相關閱讀: