如何因應人工智慧發展帶來的挑戰

作者:數位轉型學院共同創辦人暨院長 詹文男

本篇為有聲文章,您可以透過以下連結聆聽:https://youtu.be/KHwhX7XYgwA

  七大工業國家集團(G7)在四月底揭幕的數位和科技部長會議上,呼籲針對生成式人工智慧(AI)的相關風險,包括偏見和錯誤信息的傳播、侵犯版權和其他影響等,制定國際評估標準,以促進該技術的審慎發展。會議並就適當使用AI和其他正在開發的科技達成五項原則:法治、正當程序、利用創新機會、民主和尊重人權。

  近年來AI發展迅猛,已成為各行各業創新及提昇生產力的重要工具,但其產生的副作用也為社會及產業帶來了許多新的挑戰和問題,G7成員國義大利三月時曾令ChatGPT下線,以調查ChatGPT可能違反個資法的情形,儘管已於四月底解除禁令,但這項行動引發歐洲其他國家的關注,某種程度也鼓舞了各國隱私單位啟動調查的動機。

  而隨著AI的滲透性與應用愈發普遍,其所帶來的挑戰也愈來愈嚴峻,這包括:其一:偏見與公平性。機器學習的演算法是基於訓練資料來進行學習和預測,但如果訓練資料中存在偏見,這種偏見就會被機器學習模型所學習,進而導致偏見的預測和決策。例如,一個用於招聘的機器學習模型如果只學習男性在特定職位上的表現,就可能對女性申請者產生偏見。

  其二是隱私保護與安全的議題。隨著AI技術的發展,大量的個人數據被收集和使用,隱私保護成為了一個極其重要的問題。如果個人數據被不當使用或洩露,就可能造成嚴重的社會和個人損失,這樣的事件屢見不鮮;又人工智慧系統越來越複雜,且擔負的任務愈來愈重要,萬一受到駭客攻擊,後果不堪設想。

  其三是倫理道德的問題。例如自動駕駛汽車是否應該優先考慮乘客的生命,還是要考慮其他道路使用者的生命。在人工智慧決策中,如何平衡各方利害關係人的利益,是一個非常複雜的問題。

  其四是透明度、可解釋性及法律和監管框架的問題:由於AI技術的複雜性,往往難以理解和解釋AI模型的決策和結果,這也給使用者和監管機構帶來了困難。因此,透明度和可解釋性也是當前AI發展中需要被重視的問題之一。而隨著AI技術的發展,法律和監管框架也需要相應的更新和調整。因為現有的法律和監管框架可能無法涵蓋AI技術的各個方面,或者不足以解決AI技術所帶來的議題。

  其五是經濟和社會衝擊的問題:一方面,AI技術的應用可以提高生產力、創造更多就業機會;但另一面,AI也可能會造成更大的數位落差,有資源的大型企業理論上會更有能力運用AI工具來競爭,廣大的小微企業,恐怕會更居於弱勢的局面而有礙於社會的多元創新;另原本就沒資源的弱勢家庭及族群,也可能因為科技及數位落差,而落入弱勢惡性循環,不僅影響其自身的發展,也危及未來社會的安定。

  事實上,AI的發展不僅對教育及產業產生影響,它幾乎是全面性的衝擊到人類的生活、工作、學習及娛樂等等層面,不僅為我們帶來更多的創新及生產力的提昇,但也帶來許多隱憂。從工具的角度,如何能夠發揮其最大的效用但降低其可能的負面影響,顯然需要各界更多的關注與努力!

  AI帶來的創新生產力顯而易見,但其負面挑戰也逐漸顯現,政府應積極與各界加強合作,以降低其對產業、經濟及社會可能造成的衝擊。建議如下:首先,應增加數據的種類、規模及多樣性、改進標籤方法、加強數據的可靠性,以解決偏見和公平性問題。

  其次,制定AI倫理準則、加強相關法規與監管,並採取有效的隱私保護及技術安全防範措施,例如加密、匿名化、分散化存儲及強化技術及資訊安全等。

  再者,應加強多方及國際參與的協作機制。AI技術的發展需要跨國、跨界、跨部門、跨學科的合作。為了促進AI技術的發展和應用,必須建立多方參與的協作機制,促進不同領域之間的交流和合作,加強技術創新和知識共享。

  再其次是加強AI透明度和可解釋性。通過使用可解釋性的AI算法、將AI決策與人工智慧系統背後的原理相結合、開放AI模型、建立透明度機制等,以加強透明度和可解釋性。

  最後,為了更好地應對AI帶來的挑戰和問題,必須加強人工智慧教育和培訓,提高勞動力對AI技術和應用的認識和理解,增強對AI風險和挑戰的意識,並培養相應的技能和能力,以應對未來的挑戰。

(作者是數位轉型學院共同創辦人暨院長、臺灣亞太產業分析專業協進會(APIAA)院士)

(全篇完)