生成式人工智慧(AIGC)近年出現突破性發展,為科技發展進程投下震撼彈,也透過各種層面的運用影響人類社會及生活模式,但在AI飛速發展並頻繁受用的同時,卻也悄無聲息的埋下不少風險。長風基金會2日下午舉辦2023突破論壇,以「全球啟動AI風險控管:台灣怎麼管?誰來管?」為題,邀請相關領域專家,探討AI發展的風險,以及如何既鼓勵創新,又能有效保護使用者。
溫怡玲指出,探討AI時千萬不要只從技術層面討論,接下來的重點是應用,如在金融、教育或在環境保護、社會責任及公司治理(ESG)上如何應用。AI構成有3大構成要素,台灣其實沒有真正的AI供應鏈,因為台灣只有算力,如輝達(NVIDIA)的重心也在算力,台灣缺乏模型、數據等要件。
溫怡玲續指,儘管我國在AI擁有要素的是算力,但台灣在算力的資源也不夠,甚至花錢也買不到,因為產能都被國外其他大國買去,如輝達算力資源出售最多的國家是沙烏地阿拉伯;而在模型的數據上,台灣更是嚴重不足,以繁體中文的數據集為例,簡體中文是繁中的2000倍,數據不夠的問題必須要解決。
分析AI發展4大風險 溫怡玲曝3解方:但可能沒什麼用
針對AI模型不透明造成的風險,溫怡玲解釋,這可能使得AI工具的輸出結果難以理解或解釋,進一步導致結果偏差或不可預測;而AI自主性過高,可能導致在缺乏人類的監督下,偏離原訂目標造成無法預期的影響;安全隱私部分,因AI系統可能成為駭客攻擊目標,或使大量個人數據使用的資料外洩。
溫怡玲提到,目前AI發展可能造成的負面影響與問題,包括倫理和法律問題、失業和社會不平等,以及造成數據隱私和安全性都出問題,而現在可行的改善措施,如增加開發的多樣性和包容性,以及減少偏見和歧視風險、並制定道德準則,只能引導AI發展與應用,教育與宣傳也有必要,但這些也可能沒什麼用。