{{ $t('FEZ002') }}設備組|
人工智慧與公共治理
高一勇班 林鋐瑜、林仕晟 報導
3月14日政治大學公共行政系陳敦源教授蒞臨本校進行第十六屆學術人才專題講座。陳教授目前是台灣數位治理研究中心的研究員,同時也是本校校友,抽空回來與學弟妹們分享最新的議題「人工智慧」與公共治理。
教授以機器人與人工智慧的發展歷程作為開頭。由希臘神話中鐵匠之神所創造的第一個機器巨人塔羅斯,為西方歷史中第一個人造人的想像紀錄;同時東方也存在「偃師造人」的故事,作為人造人的想法源頭。近年已多次以人工智慧為主題製作各種科幻電影,涵蓋許多對未來人工智慧發展的猜測。教授提及這些科幻電影提醒我們人工智慧的發展焦點並非機器人,而是人本身以及所衍伸的道德問題。現實生活中,機器人與人工智慧逐漸普及,例如1990的掃地機器人、2003特斯拉開始研發的自駕系統,還有前年橫空出世的ChatGPT,不斷地告訴我們人工智慧的時代已經開始。面對這項議題,教授舉了2017年兩位科技大巨頭馬斯克與祖克柏對AI開發的爭論,而兩位所言都隱含了人工智慧需要公權力介入的必要性,才可合理運用與開發,更深化人工智慧的現實應用範圍。
接下來,教授為我們介紹人工智慧。1956年人工智慧之父John McCarthy首次提出人工智慧的概念:機器如同人類一樣地解決問題、讓自己進步。英國電腦科學家圖靈也曾做過著名的圖靈測試,若機器可與人類只開對話且不被察覺其機器之身份,便可以稱此機器具有智能。人工智慧以智能程度分為弱AI、強AI以及超AI,分別以「在單一方面比人類出色」、「所有方面與人類具有同等能力」及「在所有方面都比人類出色」為分類依據。而為了模仿人類思考與行動,人工智慧透過資料、預測與重複學習來提提升自身能力與智能。學習方式又分為監督式、非監督式學習以及強化式學習,並且透過「編碼-比對-解碼」的過程來判斷事物進行認知決策。另外,教授也介紹了近年十分熱門的生成式AI,其中與一般的AI最大的不同在於加入「transformer」來使人與機器的溝通介面升級,透過演算法及猜測來拼湊出對知識的理解,使人可以使用自然語言而非程式語言與它溝通。然而,此項技術仍未發展完全,依舊存在一定的誤差。此外,教授也給我們看許多由AI創作的作品,輸入特定關鍵字後輸出為圖畫或影片。教授也分享了近幾十年的AI發展,2000年前對人工智慧的研究大多僅存在理論與紙上的數學模型與研究,1980年代與1990年代股市曾兩度因此震盪,造成了「AI的冰河時期」。在2000年後進入了社群媒體的時代,不斷變大的神經網絡模型、大數據時代的到來以及算力的提升使的AI能於各方面高速成長,吸引大量資金投入此領域研究。然而教授也提到,AI對人的影響不見得都為正面,可能增加生產效率卻有可能造成人的懶惰。若個人無法利用AI提升個人工作能力,便無法增加整體組織的效益與效能,那這件事本身的價值就不存在。
講座的最後一部分,教授與我們探討AI的反思。首先是組織決策是否因AI而優化,對誰帶來利益、對誰造成傷害的問題仍無法一對一解決,例如是否會產生第四次工業革命並全面取代人工。另外AI進到我們的生活中最終需要有一個人負責,負責的人是誰會影響到使用的人當時的態度,稱作自動化偏誤。AI無法承擔法律責任,僅能作為輔助的工具,社會的責任課責結構並未改變,反映出AI仍需要在被監督的情況下使用。教授也提到一個實驗,利用雪地裡的動物來給AI進行學習,導致AI判斷動物是否為狼的依據為「是否在雪地」。然而即便已經告訴學生此判斷依據,機器判斷正確率並未百分百,仍然有一成的學生相信AI的判斷運作充滿信心,產生了對AI透明度與應用的問題,人工智慧透明度是否足夠進行有責任的應用仍然無法確認。此外還有許多不同的議題:AI是否使人更知情與理性、造成社會意見操弄成為常態(對應2018大阪外交官蘇啟誠自殺事件)、AI的隱私、安全性、可檢視性問題(對應中國「社會平等系統」)、語言、能源問題等等。
講座的尾聲,教授以Asilomar的23項AI運用原則為總結,人工智慧的使用上應保持合作、互信、透明及具備安全性與可檢視性,並以「滿足越多人之利益」為目標,對社會基本價值觀保持絕對的尊重。教授勉勵我們,多去善用人工智慧帶來的優勢,提升自身效能,透過使用人工智慧在未來為自己創造更多的機會。
活動相片請連結
https://drive.google.com/drive/folders/1HB1DJtupvqVhor4Kd_jtYuBI3wFNrvEF?usp=sharing
{{ $t('FEZ003') }}2024-06-06
{{ $t('FEZ004') }}2024-06-26|
{{ $t('FEZ005') }}190|