{{ $t('FEZ002') }}設備組|
高二勇班 洪丞緯 報導
六月一日再度邀請政治大學公共行政學系的陳敦源教授蒞校演講,主題為「AI來了,政府怎麼辦?」。陳敦源教授是我們的學長與家長,長期指導校內的社會學術人才養成計畫專題研究,為本校的傑出校友。近期,教授致力於研究AI與公共行政與臺灣文官調查等多個領域,投身研究不遺餘力。演講中教授透過AI擬真機器人進行自我介紹,讓我深深的感受到AI時代真正地來臨,而且可能就在我們的身邊。
演講主軸分為五大部分,分別為:「AI來了嗎?」、「AI是什麼?」、「AI與社會」、「AI與政府」、「AI不等了?」。教授首先用希臘神話與科幻電視影集作為引言,說明AI自過去即有人造人的構思與想法,並進一步帶到近期兩大科技巨頭的紛爭、AI帶來的驚奇和NVIDIA創辦人黃仁勳在臺大畢業典禮的致詞,說明AI正在我們身邊,在這個以AI技術擁有者為中心的「弱肉強食」的社會裡,政府的介入是相當必要的。接著教授介紹了何謂AI智慧。其中,起源概念為人工智慧之父John McCarthy,之後人類也對AI有了相對應的定義:從人類出發來想像,它是會像人類一樣思考與行動的電腦系統,且它是依循理性思考與行動的電腦系統。教授指出,AI最重要的核心在於學習能力,透過不同的學習模式模仿人類思考與行動,並進行「編碼-比對-解碼」的過程,進而學習人類的認知決策能力。
演講中教授也對AI與社會的常見問題進行深入探討。首先,對於AI是否會取代人類,教授提出看法:目前為止,會被取代的是極度機械化的工作,如果需要決策的時刻,都仍然需要人們負責。再者,對於人工智慧是否可以減少執法與醫療瑕疵,教授認為:AI在醫療和治安領域都很積極,然而兩者的發展面臨相同問題:「偏差」帶來的「錯誤」和「歧視」,責任歸屬應屬於誰?這是值得我們去思考的。對於人工智慧裡隱私權問題,教授以中國的「社會評等系統」為例,雖然其對於降低犯罪有幫助,但對人民毫無隱私可言,民主國家擁有一樣的技術,國家監控的陰影將會揮之不去。
最開始的引言:政府介入的基礎建設,便道出了AI與政府的關係 - 人工智慧的工作場域,需要更多的管理。目前政府數位轉型的十大挑戰包含缺乏策略、不友善的組織文化、缺乏預算資源等,研究顯示,沒有「資料治理」不可能有好的AI發展!此外,人工智慧的導入,公布很需要沙盒機制。為解決政府「創新即違法」的困境,須讓倡議者在一定的風險控制機制下,接受外部針對法規不允許、法規未明確、或是推動有治理風險的轉型個案,以限時、循證與有效實驗的精神與方法,推動政府服務的全面數位轉型。再者,導入AI保護隱私的部分,政府也須積極立法。如在歐盟的一般資料保護規範(General Data Protection Regulation, GDPR)就對於個資有非常嚴格的規範。教授也給出了小結:埋頭去做就對了 Just Do It!
最後,教授也提出了幾個事實,包含AI 科技樂觀論有發展階段的落差、目前政府數位轉型的痛點、政府數位落後的壓力,讓同學們更能理解目前AI與政府與社會的現狀。在結語中也特別勉勵同學,如果我們能掌握AI,就能掌握未來!這次教授蒞臨再興中學,相信對許多同學都是受益匪淺,並透過教授提供豐富的知識點,讓同學能以更全面的方式探索AI並與其共存。
高一勇班 林子曦/林妤恩/楊子嫻 共同報導
六月一日下午,再興校友陳敦源教授蒞臨校園,介紹人工智慧的最新趨勢、相關討論話題;在此科技蓬勃發展之下,政府應該扮演什麼角色,思考什麼問題呢?
AI之簡介
教授的引言講述,早自希臘神話即有人造人之想法,科幻電視影集更是把對AI想像運用得淋漓盡致。在夢想逐漸變成現實的Z時代,人工智慧不斷帶來驚奇與和人類並駕齊驅的可能性,企業巨頭隨之產生了想法上的碰撞。
人工智慧的想法首次出現,是John McCarthy在研討會提出可模擬人類學習方式的機器之概念。這項研究在歷年來被多方學者,例如:Turing、Russell、Norving等人逐漸完善。人工智慧依照智能程度分成:能夠替代人類進行特定工作的弱AI(ANI),能夠在大部分技能上與人類匹敵的強AI(AGI)和在各方面超越人類的超AI(ASI)。AI模仿人類決策的過程是透過編碼、比對至解碼,藉此辨認出偵測到的物體。而它學習的途徑依照方法不同,分類為監督式學習、非監督式學習和強化式學習。其中非監督式學習,是讓人工智慧瀏覽海量資料並自行整理,此系統形成的AI又叫做生成式AI。
新科技 v.s.老問題
教授針對AI這項新科技,提出了可能帶給社會的影響。首先是「組織的決策是否會因AI而優化」? AI會成為帶動人們言論、想法的新風潮,因此人類越來越重視代議政治中民眾的參與度。接著是被關注已久的問題「人們是否會被取代」。教授提到了一個關鍵,通常AI還是有不確定危險性、失誤性的問題,現階段會被利用於較制式、小範圍的工作,較繁複、有風險、會需要課責對象工作還是會以人工為主。對於「AI資料的真實性、透明度」,AI可以藉由人們在網路上留下的大數據,提供客製化的資訊去帶動輿論,而人們也確實有可能因為太過於依賴、信任AI而沒有去查證、了解演算依據、資料來源,而接觸到錯誤的資訊。人們對於這項科技應該要是操控而非被操弄。最後教授提到了關於「人權」的問題,就現階段AI常被使用於醫療、執法等領域。但如果執行中有歧視、偏見的問題發生,那誰要承擔這方面的責任。隱私權問題也是長久以來備受討論的,如何在人權跟運用科技中取得平衡,想必是科技發展的一大關鍵。
政府介入,該怎麼做?
在AI影響社會甚巨的時代下,政府有必要介入並推動數位轉型。舉例來說,AI能幫助我們在論文上進行平行修改,使檢視者更難查明抄襲,產生潛在的不公。AI智慧的運用也會牽涉到課責機制的問題,如果出錯了,誰會被課責?教授的研究顯示,當該任務的負責人不是自己時,尋求AI幫助的比率高於當負責人是自己時的比率。這也印證了所謂的「科技樂觀論」與「自動化偏誤」;同時驗證為什麼政府在這樣的e化時代中,有必要投入更多的資源,教育並保障人民的權益。為了解決「創新即犯法」,政府決定是否修定法條前的實驗階段稱作「沙盒機制」。公部門需要利用沙盒機制來評估修改過後的法條運作上可能會碰到的問題,以及其是否真的具有可行性,適用的範圍包括金融界以及自駕車等。更重要的是,它能在試驗之後提出能夠幫助前述提到的課責性問題的解決方案。但現階段沙盒機制有時仍會受到現有法令的限制,還有它並不適用於所有領域,例如醫療系統;由於其本以實驗性質為主,如果出錯了也會牽涉到道德的問題而難以對家人負責。教授建議,政府未來需要提出更多政策,幫助公部門的資料管理。AI的發展開啟了大數據時代,雖然更容易取得各項數據資料,但面臨到的問題就是缺乏資料的分類管理,並化為有意義的資訊。研究顯示開發中國家對於AI等科技的發展相較於已開發國家樂觀。這能說明各國發展階段的落差,已開發國家對於長遠的發展創新等都抱持比較憂慮的態度,反觀開發中國家卻普遍較正向看待。但落差的形成可能源於政府投入資本的不足,也是未來各國政府應該致力提升的面向。
在結束分享之後,教授以「要避免大數據碰到的形式跟風」、「政府介入為必要」等作為結語;身為世界公民,我們不能一味將AI視為萬靈丹,需要取其之有利處,管制可能之威脅,監督政府之管理作為。
活動相片連結
https://drive.google.com/drive/folders/1JBDayY4XTcxPKyvYCUT1nlt_dyHQ4cuE?usp=sharing
{{ $t('FEZ003') }}2023-06-05
{{ $t('FEZ004') }}2023-06-05|
{{ $t('FEZ005') }}241|