跳到主要內容區
:::

2024 人工智慧在高教的角色及應用論壇

最後更新日期 : 2025-04-10

 

【2024 人工智慧在高教的角色及應用論壇】

 

9/10 照片

9/10 上午場:

 

 

9/10 下午場:

 

 

9/18 照片

9/18 上午場:

 

 

9/18 下午場:

 

 

9/10 上午場:

◆ 專題演講一:各國高教AI角色與發展

    主講人:成功大學 謝孫源國際長

◆ 專題演講二:人工智慧的雜菜羹

    主講人:成功大學資訊系 蘇文鈺教授

◆ 主題演講一:人工智慧平台教學應用如何在大學課程中導入即時互動AI展示、虛擬協作設計和醫療和基因組學分析

    主講人:成功大學醫工系 林哲偉副教授

 

9/10 下午場:

◆ 綜合交流座談一:

    引言人:成功大學推廣教育中心 辛致煒主任

    與談人:成功大學光電系 黃志嘉教授成功大學解剖所 吳佳慶教授資策會數位教育研究所 張育誠所長

◆ 主題演講二:促進社會福祉的可信任人工智慧

    主講人:成功大學資訊系 李政德教授

◆ 綜合交流座談二:

    引言人:成功大學資訊系 王士豪主任

    與談人:成功大學資訊系 連震杰教授成功大學資訊系 朱威達教授成功大學電機系 黃仁暐教授

 

9/18 上午場:

◆ 專題演講:人工智慧在美學與設計的應用

    主講人:台灣設計研究院 劉世南研發長(成功大學創產所特聘教授)

◆ 主題演講一:人工智慧於表演藝術創作之應用

    主講人:成功大學藝術所 馬薇茜副教授

◆ 綜合交流座談一:

    引言人:成功大學圖書館 傅子芳館長

    與談人:成功大學數學系 舒宇宸教授、成功大學資訊系 楊中平教授、成功大學工科系 游濟華副教授

 

9/18 下午場:

◆ 主題演講二:大型語言模型的公平性

    主講人:成功大學敏求智慧運算學院 李韶曼助理教授

◆ 綜合交流二座談:

    引言人:成功大學心理系 胡中凡主任

    與談人:成功大學經濟系 林常青主任、成功大學法律系 葉婉如副教授、成功大學不分系 吳易叡副教授

 

 

9/10上午場:

 
專題演講一:各國高教AI角色與發展
主講人:成功大學 謝孫源國際長


●問題:

Q1:成大能購買 GPU 提供研究生學生使用嗎?

A1:實驗室的研究生當然有,都有在很努力的去找錢買 GPU 給研究生使用。如果是一般的學生,可能需要參與 project 來得到更多的算力,要有目的性的參與一個 project ,就有機會可以用到更多的算力。

 

Q2:人工智慧的缺點就是需要大量算力,如果想要繼續發展就只能不停疊算力和優化算法,普通學者也只能靠開源的預訓練模型繼續發展。想靠自己從零開始除非是蝙蝠俠鋼鐵人這類富可敵好多國的,不然不可能靠自己是在人工智慧領域有任何建樹。學術界除了和大企業合作研發人工智慧以外還有什麼辦法自己研究研發這個領域嗎?

A2:其實台灣的政府也是一直在收集很多資料( PM2.5 、健保),但是這些資料真正能讓 AI 做研究的人,能夠有辦法做分析做資料嗎?其實目前還有很多的法規正在突破,需要這些資料的人可以去申請,也可以做跨領域的研究,但是只給一些領域且要花很多錢。學生在實驗室如果有一些預算,不需要買龐大的算力,可以只買一些可以做 AI 分析的運算,最重要是學習基礎功。例如: Python 、 Programming Language 、 Database 、 Machine Learning 、工程數學、微積分和資料分析的技術,只要這些内力練好,將來到哪裡都可以變成武林高手。


●聽眾意見回饋:

C1: Scopus AI 是根據 Elsevier 的五大原則開發的。例如:強大的數據隱私:使用者輸入均按照我們的隱私政策進行處理。特定於 LLM 的數據隱私: ChatGPT 是我們使用的 LLM 之一。我們不會儲存任何使用者查詢來訓練或改進。內容和數據治理: Scopus 內容選擇經過獨立專家委員會的嚴格檢查。

A1:這個是 Elsevier 的官方説法,其實很多很有名的學者都不願意幫 Elsevier review 論文, 甚至自己的論文也不會發佈在 Elsevier ,因爲 Elsevier 把這些出版變成一個商業化的行爲,有違學術的精神。 Elsevier 有自己 Database 的自理功能和法規在管理,其實 QS 和 THE 排名只是用於參考,只能用於參考而且他非常具有參考價值,但不能完全相信。在 Elsevier 的 Database 裡面去遵循的話還是有一定的可信度,因爲他有很多的資源投進去。

 

C2:專利數量意義不大,第一:屬地主義、第二:登記優先或無實質審查、第三:唯專利組合( portfolio )較能有獨佔性、第四:代表投入多而非品質高。

 
專題演講二:人工智慧的雜菜羹
主講人:成功大學資訊系 蘇文鈺教授


●問題:

Q1:AI 相關的教育是未來世代必要的嗎?如果是的話,身為老師應該要具備哪些能力?

A1:其實教練不需要比學生會打球,教練會觀察球員的問題,過去球員對許多知識方面上的吸收可能會沒有那麽好,所以需要一個老師。老師的角色是在瞭解學生的瓶頸在哪裏,指引學生方向。就是因爲老師奮鬥的背影,讓我們覺得這件事情值得奮鬥下去,因此老師非常重要

 

Q2:身為一個外籍生我很好奇,小時候沒怎麼接觸到這類課程和知識,那小孩子的程式學習和人工智慧的學習要怎麼從零開始普及?教授以後有計畫將這種課程和理念帶出台灣,普及到其他國家嗎?

A2:剛開始沒有直接給小孩子用電腦,只是將積木做成磁鐵,讓小孩先玩磁鐵。大部分小孩子學程式設計第一個就是做 Outlook Code ,就需要用到電腦,但是這樣會加深小孩子的近視,而且一不注意就在打電動,所以就先用磁鐵排出程式,之後就玩大地游戲,玩了大概幾個月熟悉了之後才開始用電腦; 臺南市的偏鄉學校有 6 成是有教 Scratch 的,因此會減少課程,會比較專注在 AI ,但發現 AI 課程確實是有一點困難,所以設法去簡化學習過程,機器人的課程在未來兩三年也會漸漸成熟,也會用教育部的經費給台灣的學生直接使用,都不需要付錢,因此就可以普及。通常台灣人使用這種科技教育都不願意付錢,但聽説日本人會比較願意付錢,所以有在考慮出日文版,在日本或美國募資。


●聽眾意見回饋:

C1:這麼多跨領域合作專案,想必是花了很多的時間精力!而且還具有強大的社會影響力,老師真的非常厲害!

 

C2:將模塊化視覺化之後結合起來的工具,對於不會寫程式的人來說確實方便,有一種 Python 的函式庫視覺化的感覺,很多開發工具都有這類功能,很讚。

 
主題演講一:人工智慧平台教學應用如何在大學課程中導入即時互動AI展示、虛擬協作設計和醫療及基因組學分析
主講人:成功大學醫工系 林哲偉副教授


●問題:

Q1:感覺未來的醫療品質會因為 AI 提升非常多,但相對來說要享受這些AI醫療服務是不是需要花更多的錢?

A1:以台灣的現狀,目前 AI 醫療都賺不太到錢,理論上醫療AI應該是需要解決一些 Labor Intensive(勞動密集型)的問題,但這些問題被解決後醫院會不會花一些而外的錢來買斷或租用這樣的服務來解決這樣的問題。AI 一定會讓醫療品質變好,但是醫院的經營者會不會用可能考量在他的經濟利益裏面,用AI賺到錢的例子。

 

Q2:汽車工廠也能虛擬化了,那醫院在未來是不是也有辦法這樣操作?例如:手術操刀到醫療看護等等,而且不同的醫療部門也能通過人工智慧整合,提升整體效率。每個病人都有一個專門負責的人工智慧從入院治療到出院一條龍服務,是有可能的嗎?

A2: 政府其實有在往醫院虛擬化的這個方向去走,因爲護理能力很稀缺,很多醫院的病房都開不太出來,所以有轉換出一種模式叫在宅醫療。未來的醫療把所有資料變成模型化、記錄化、標準格式化一定會做得越來越深,但醫院虛擬化可能不太可能,因爲在法律上任何的行爲都需要一個負責人。

 

Q3:請問 NPU 的推出是否會替代 GPU ,更適合進行 AI Training ?

A3:Neural Processing Unit(NPU)的問世確實為深度學習和人工智能領域帶來了新的可能性。NPU 是一種專為人工智能和神經網絡運算優化的硬體架構,與 GPU 相比,它在特定工作負載(例如:推論任務和高效處理稀疏矩陣運算)中可能有更高的效率。以下是一些關於 NPU 是否可能在訓練方面取代 GPU 的分析:
NPU 可能取代 GPU 的優勢
1. 專用性高:NPU 是針對 AI 任務設計的,尤其是神經網絡中的矩陣運算和激活函數計算,比 GPU 更加專注於這些特定的工作負載。
2. 能效比提升:NPU 通常在功耗方面表現更佳,對於需要在邊緣設備或能源受限環境下執行 AI 訓練和推論任務非常有優勢。
3. 新型架構的靈活性:NPU 可以結合更多專門為 AI 訓練設計的硬體特性,例如:自適應精度計算和專用的數據流處理機制,使其在某些任務中超越 GPU。

目前限制
1. 通用性不足:NPU 的專用性也可能成為其弱點,因為其設計可能無法涵蓋所有訓練工作負載的需求。相比之下,GPU 的通用性使其能適應不同類型的深度學習模型。
2. 生態系統尚未成熟:目前 NPU 的軟體生態系統和框架支持相較 GPU(例如 NVIDIA 的 CUDA 和 cuDNN)來說尚未成熟,這可能影響開發者的採用速度。
3. 計算規模:大型神經網絡的訓練需要高效的分佈式計算,GPU 集群已經有多年優化的經驗,而 NPU 在這方面還需要時間發展。

未來趨勢
1. 混合使用:未來可能會出現 NPU 與 GPU 共存的情況,NPU 專注於推論和邊緣計算,而 GPU 仍然主導大規模訓練。
2. 架構融合:像 NVIDIA 的 Tensor Core(專門為 AI 訓練和推論設計的硬體單元)和 Google 的 TPU(Tensor Processing Unit)已經展示了專用硬體的威力,未來 NPU 的設計可能與這些技術進一步融合。
3. 進一步專業化:如果 NPU 的設計進一步進化(例如支持大規模分佈式訓練和更多模型結構),它可能會在訓練中佔據更大的比重。

結論
在未來,NPU 可能會逐步成為某些 AI 工作負載中的主力選擇,但要全面取代 GPU,仍需要克服許多挑戰。GPU 的通用性和已有的龐大生態系統在短期內仍然會保持優勢。然而,隨著技術的進步,特定領域內的硬體(例如:NPU 和 TPU)可能成為主導力量。

 

9/10下午場:

 
綜合交流座談一
引言人:成功大學推廣教育中心 辛致煒主任
與談人:成功大學光電系 黃志嘉教授
成功大學解剖所 吳佳慶教授
資策會數位教育研究所 張育誠所長


●問題:

Q1:用模型模擬提升課堂的互動性和趣味性,聽起來非常的厲害,感覺上每個科系都能引入這種做法。好奇引入這類技術進入課程內遇到了什麼困難,又是怎麼解決的?人工智慧在課堂的應用占比比例又是如何決定的?

A1:
[吳佳慶教授]:通常依照需求,例如:教學回饋以及考試成績,這可以看到學生在學習上遇到最有挑戰和壓力的地方在哪裡,其實 VR 不是爲了好玩,是爲了幫助學習。
[黃志嘉教授]:工具只是幫助我們去設計或是怎麽讓學生更有效率的去做這件事情。
[張育誠所長]:大學的 focus 是在做研究型和演練行的人才訓練,教育訓練或者職業訓練比較 focus 的是在到職場或到現場所需要做的一個内容。

 

Q2:資策會和高教在培育人才上的作為之間的關係或差異?資策會主要是畢業後進入產業的人才之培育?還是也有正在與高教合作?或者算是指導高教的角色?

A2:高教和資策會核心都在如何培養職場需要的人才,只是在過去的習慣裡面高教培養出來的都是以研究型爲主,所以出來到業界時都會有一點 gap 需要補齊。每個學校現在都有實習課程讓學生與業界中間接軌接得更順利,讓企業可以減少用人時不知道他是不是真的會的時間。

 

Q3:預防生成式 AI 產出錯誤資訊,或用 Deep fake 進行侵權或犯罪,這類的研究,在國內是哪些單位在做?

A3:基本上來講可以講有也可以講沒有,因爲各位都知道現在最大的挑戰是在於不知道他是在哪裡生出來,生出來的是假的。基本上來講用的還是在人,怎麽用AI,怎麽去跟AI合作是一個重要的議題,不是 AI 會帶來毀滅,而是用它的人會帶來毀滅。Deep fake只能做事後管理,不能做事前管理。

 
主題演講二:促進社會福祉的可信任人工智慧
主講人:成功大學資訊系 李政德教授


●問題:

Q1:之前有聽過一個關於自動駕駛的觀點,是說自動駕駛目前由於一些事故責任相關的問題,所以在某些地區難以實施。老師在演講中有提及一些關於 AI 是否可信的內容與面向,因此想知道老師對於此觀點的看法,謝謝

A1:聽起來其實技術上面是可行的,但是因爲沒有法規的配套所以很多時辰必須要往後,所以安全性在各國引入自駕車的時辰裡面其實是要有法規作爲基礎才能夠讓技術可實施。

 

Q2:人工智慧對訊息的管控和限制,甚至封鎖刪除被判定為惡意或虛假的文章,如果這類判定技術出現誤判或被人濫用,是否會造成言論自由和過度審查的問題?

A2:在使用者界面上面的設計很重要,要如何和緩的呈現,將最後判斷真僞的決定回到使用者身上,這是目前看起來比較可行,是一個比較不會影響言論自由的形式。

 

Q3:現在也有人在教導大眾如何「資訊與媒體識讀」,提醒人們應該特別小心存疑哪種訊息,以及如何判斷正確性(可信任度)的方法。不知這些方法,也可能加入目前服務系統中,幫助檢查資訊可靠性(或找出可疑資訊)嗎?(用教人的作法,來教電腦判斷?)

A3:使用者必須要學會判斷的最基本對於每個訊息有一定的警覺性,應該必須要是一個本身使用自媒體最基本的習慣。可以通過 AI 來輔助我們,告訴使用者,這個訊息或留言哪個是可疑的,久了之後即使是沒有這些輔助工具也能自行判斷哪些訊息是有可疑性的。這是一個交互的流程,我們必須要透過AI的訓練去具備判斷的意識,同時也是需要透過人的察覺來 feedback 給使用者,讓人去教 AI 也讓 AI 來教人。

 

Q4:現在大模型通過不斷的增加數據量可以使得模型性能不斷提升如 LLAMA 論文中的觀點,研究者們基於這一觀點不停增加訓練時數據量,而當數據集無法通過現實資料進行擴充時一些研究員嘗試通過生成式模型的輸出結果作為訓練數據對模型進行訓練,但是發現這反而使得模型穩健性下降,模型輸出反而不理想,不知道老師對於數據枯竭下如何提升性能的見解?

A4:第一個面相是如何去改進 AI 生成的訊息的多元化,讓他看起來像任何人生成的而不是像現在經常使用的字眼都是相似的。技術上面需要設法的讓AI生成的訊息更多元化,這樣才有機會讓他生產的資料的穩健性不會因此而下降。此外, AI 生成訊息可能會不斷地被累積曡高,我們要如何決定要有多少的比例使用生成的資料,多少使用真實的資料來讓模型做判斷,這是一個研究上需要再突破的議題。

 

Q5:驗證的信任問題,會因為各界立場、角度、專業度不同,導致結果是認知的真相大於事實。依照目前的訓練方式,似乎無法保證結果中立,而是訓練者或大多數人期待的樣子?

A5:AI 其實要兼顧到不同的族群,其實只要設法讓他突出一個不同的角色來呈現出一個多元的不同結果,應該讓 AI 在不同面相都能突出結果來公平的去審視或是提供給不同面相的人來做參考,這才不會有歧視性和爭議的發生。

 

Q6:在設計 GNN 用於辨識虛假資訊時,如何確保其在應對虛假資訊的多樣性、模糊性和跨平台傳播時仍然具有魯棒性和可信任性?

A6:可能拿到的標記是政治上的新聞但是需要應用到健康類的新聞,所以必須要讓模型能夠學到不受主題影響的特徵,這樣才能達到遷移學習的目標。多樣性與否,我們可以做的是去找到透過可解釋性的線索、文字、擴散的 Python ,可能是跟假訊息有關的,再事後去歸納說能夠找到的人和可疑線索是哪些。

 

Q7:GNN 本身的模型非常考驗算力,當今龐大的動態社交網路條件下,GNN 如何在保留高性能的同時提高其解釋性和透明度?如果是採用分布式計算的方式訓練模型該如何保障數據隱私和算法透明?特別是在資訊來源本身可能不可靠的情況下。

A7:這個訓練本身效率有很多例如分散式的訓練或是抽樣式的訓練,只使用一部分的比較有代表性的圖來做訓練。取決與要把 GNN 的模型用在什麽地方,可以取一個比較密集的使用者的社群來做訓練,這些都可以比較簡單的去達到在有限的信息之下來做到某種信息的應用。

 

Q8:非監督學習的部分,如何採用適合的評估方式和模型檢驗標準也是一個需要考量的議題,不知道老師會想要怎麼處理?另外如果缺乏標籤,是否會影響模型分群結果的可解釋性?

A8:這要從實驗室裡面來講,沒有標記資料來做訓練其實是假定真實事件沒有標定資料,但實際上還是會保留一些些標記的資料來評估模型的好壞。在應用的場地可能就真的沒有標記資料,雖然可能沒辦法取得標記資料,但是可以透過平臺的建構提供建議與服務去收集來自真實事件的 feedback ,來作爲非監督式學習的準則。

 
綜合交流座談二
引言人:成功大學資訊系 王士豪主任
與談人:成功大學資訊系 連震杰教授
成功大學資訊系 朱威達教授
成功大學電機系 黃仁暐教授


●問題:

Q1:人工智慧學程適合什麼人修呢?資工之外的學生,特別像人社的學生,學了真的有用嗎?有實際學了之後應用或加分的例子?是所有各領域的學生現在都該學嗎?

A1:現在來講 AI 會無所不在,非資工領域來看可以當作是一個科普來看,各位可以盡可能在學校的期間利用學校的資源,要學多學少都沒關係,只要將來還需要終身學習會遇到,然後不陌生就可以了。

 

Q2:總結整天的場次來說,「人工智慧在高教的角色」是什麼呢?

A2:
[朱威達教授]:我覺得人工智慧為高教帶來新的挑戰以及更多新的機會。它的角色像是迫使教師與同學不得不前進的壓力。教師需思考自己在教學上的價值,如何不被AI取代、如何改良課程跟授課方式、如何評量等。學生需思考如何善用AI工具促進學習的成效,如何不沈溺於使用工具,了解學習的過程往往比最後的結果更重要。

 

Q3:關於講者回應的「人工智慧學程適合什麼人修」的問題:當然這是目前的趨勢,也很重要,但人的時間有限,所以真的需要花這麼多時間修這麼多課,例如真的學會寫程式?還是聽幾次科普講座,有些概念其實也就夠了?

A3:大部分工具大家需要學會去運用。學生不要覺得學習 AI 就是要寫程式,AI 其實是在模仿人類的 HI 。

 

Q4:好奇朱老師開這種 1200 位學生的課,對於評量有什麼特別的設計呢?E.g. 考試或作業,都是選擇題之類可直接自動計分的,還是可以有簡答或寫作的作業?或會有許多助教協助呢?

A4:肯定會多聘一些助教,在作業設計的方面,會尋求需要用 ChatGPT 來忙幫忙做輔助的修改,需要先設定一些標準,用過去幾年的資料來訓練一個適合幫忙批改報告的 ChatGPT ,再輔助助教人工下去看。另外,會有程式的作業,在寫程式時需要做好 input 和 output 的設計,方便我們進行比較自式化的批改。期末專題會要大家製作一個三分鐘的影片,放在 YouTube 上面,讓十幾個助教去看,不能超過三分鐘。

 

Q5:成大有很多人工智慧的課,但相關訓練用的器材和資金貌似沒有那麼豐富,未來有打算增加更多資金投入人工智慧的學習領域嗎?又是如何計畫人工智慧學分學程在未來的發展呢,是否會加入新課程和項目呢?

A5:目前 AI 和半導體的人才不夠用。課程的部分,已經有建立成大 AI 的特色課程了。

 

Q6:朱老師有提到利用 LLM 先對圖像進行分析得到如摩托車、騎手等的文字結果,這些提示可以與 CNN 模型進行特徵融合,我比較想請問這些額外特徵的引入對於模型的影響情況,如何判斷其加入的有效性?

A6::為了公平比較、發表論文,我們目前的研究都利用公開、大家共同使用的資料及進行效能的評估。相關研究領域很殘酷的事情是,我們在這個主題、這個資料集上只能做到世界領先的效能方有發表的機會。

 

Q7:現今 LMM 的研究,多半需要大量資源及資料,也導致許多研究僅能透過大科技公司才能進行,請問在欠缺算力和資料的情況下,學術研究該改朝什麼樣的方向發展和研究?

A7::這也是時時讓我傷腦筋的問題。在人力、硬體資源、以及經費都相當有限的情況下,我目前的策略是慎選研究主題,避開無法與大公司競爭的題目。另外,目前有不少輕量化訓練的方式被提出,我們可將之用於我們感興趣的特定領域中,不要與大公司開發的通用大模型競爭。

 

Q8:呈剛剛 GPU 和伺服器的問題,是否可能與企業合作提供學術優惠,供外系使用?

A8::目前持續努力與企業進行合作,但目前爭取到的算力資源仍是杯水車薪。國家高速網路中心有提供給主持國科會計畫的人員優惠價格,但即使如此,我們仍為長時間、高算力需求所衍生的費用而努力爭取經費。

 

9/18上午場:

 
專題演講:人工智慧在美學與設計的應用
主講人:台灣設計研究院 劉世南研發長 (成功大學創產所特聘教授)


●問題:

Q1:劉老師指出人工智慧無法創造藝術的報導,那麼在這樣的前提下,人工智慧是否有可能透過學習與訓練來培養對美感的理解?

A1:會被取代,因爲有人工智慧所以就更有機會把創意做好。

 

Q2:請問劉教授,電資學院學生如果要跨領域至設計學院,建議如何進行?

A2:科技人必須要有很濃的人文觀,除了專業之外要想想畢業之後要怎麽有兩把刷子,成大的通識課相對其他學校相對完整。不僅要成爲一個專家,還要跟其他專業有能力去做比較,來跟高手一起完成事業。

 
主題演講一:人工智慧於表演藝術創作之應用
主講人:成功大學藝研所暨戲劇碩士學位學程 馬薇茜副教授


●問題:

Q1:請問老師在教學所使用的 AI 軟體有哪些?還有老師認為AI軟體目前還有哪些面向是需要改善的?

A1:軟體會一直不斷的更新。當然要改進的地方是未來我們都應該要思考的,因爲影像處理在人的部分是模糊的,甚至有時候會看到手和腳不是很協調,這是因爲我們用的軟體的關係,我們沒有付費。工具太多種... 也都是還在進化中的版本狀態,因此符合自身的工作所需都是好工具。

 

Q2:現在有各種AI創作,特別是有很多人可能不是專業領域,甚至是根本沒碰過這些領域,想請問老師是怎麼看待這些非專業人士的創作?(或許他們沒學過,但靠著 AI 付出比專業人士更少的時間和努力,達到類似的成果)。另外這種創作算一種抄襲嗎?

A2:網路世界中經由二創的內容亦會被認定非侵權,何況是與合法AI工具協作後的內容,協作夥伴關係是人類也有付出貢獻度,抄襲的認定是有脈絡可循的,創作亦然。未來早已不是誰學什麼專業就不是其他領域的專業... 跨域從過往迄今一直存在,歷史上沒有AI時期也是有很多科學家、心理家亦也從事藝術工作, 如文藝復興三傑,該時期也有好多知識份子皆多元學習,科學與藝術之間相互交融並無相互排斥, 好醫生也有音樂長才。台灣楊德昌導演本身也是學電機後從事跨領域電影事業。

 

Q3:AI 創作和情色如何區辨?

A3:這題原則是個哲學面向,首先要先定義何謂情色,各國家的文化對此皆有不同看法,故要探討這議題要先會到 AI 對於情色定義為何,其 AI 產出也是某種程度上的主觀,也有可能符合當下文化環境或也依觀者的感受為思考。

 

Q4:實體的裸式表演藝術創作如何被 AI 取代?

A4:實體的任何表演,應該都不會被 AI 取代,只可能會被 AI 增添了幾分可看之處。

 
●聽眾意見回饋:

C1:很精彩

 
綜合交流座談一
引言人:成功大學圖書館 傅子芳館長
與談人:成功大學數學系 舒宇宸副教授
成功大學資訊系 楊中平副教授
成功大學工科系 游濟華副教授


●問題:

Q1:判斷某人是否在胡說八道,可能也沒那麼簡單? 就像很多政客/候選人講的話,可能被很多人批評亂說,但也很多人相信(或是不在意是胡說八道)。那如何能真的判斷胡說與否?應有標準的正確判斷答案嗎?以及就算判斷出來,有用嗎?

A1:
[舒宇宸副教授]:針對「判斷某人是否在胡說八道,可能也沒那麼簡單?」,只有數學上的正確與錯誤,才能絕對地被判斷出來。如果是觀點,舉例來說,我覺得誰誰誰比較好,則是要去論述,去說服的,而不是正確或錯誤。不過論述中所使用的推理與邏輯,或使用的數據與資料,是有機會透過數學正確地判斷答案的。舉例來說,有人說今天雨量300cm,你走出門一看,還不到膝蓋,那你就會知道是不是在胡說八道。
針對「政客/候選人講的話,如何能真的判斷胡說與否?」選民心中都會有一把尺,言行舉止,與事實比對,自然就有結論。就像上面舉例的一樣。更何況,你能確定你所見的事實,是完整的?是片面的?還是只是別人想讓你看見的?
針對「應有標準的正確判斷答案嗎?」我只能說,這世界上有很多問題,都沒有標準答案。也沒有正確答案,搞不好只是想聽到的答案。
針對「判斷出來,有用嗎?」如果是跟自己本身無關的,大多數都會覺得事不關己,那判斷出來自然是對自己沒有用。如果是自己的官司,當然為了自己的清白,就會要想盡一切辦法證明對方是在胡說八道。

 

9/18下午場:

 
主題演講二:大型語言模型的公平性
主講人:成功大學敏求智慧運算學院 李韶曼助理教授


●問題:

Q1:您覺得抄襲文章 GPT 是不小心的還是故意的,透過剛才所提及到的描摹特定的世界觀。

A1:選擇什麽文章進入 GPT 這是一開始的,所以這樣子的觀點底下所謂抄襲,以法律的觀點就是故意的。

 

Q2:首先感謝講者的分享!想請問關於最近蘋果公司推出的 AI 功能,將優先於美國推出,並在明年才會在中文或法文語系國家推出。想請問身處中文語系的我們,是否應該擔憂蘋果在美國所搜集到的資料會影響到我們後續的使用?也想請問講者應該如何看待並應對這件事情?謝謝。

A2:其實任何的 AI ,以美國優先的框架,這個 AI 有他的方向,對於世界性的 AI 使用是一件很有意義的事情。

 

Q3:若 AI 真的納入了多元文化的語料,他的呈現是否能呈現多元文化的觀點,還是仍有固定的觀點傾向呢?就是如果我使用有敬語的語言去描述文化又或者像中文這種無敬語去表現,可能會有差異。

A3:如果要非常有彈性的在過程當中進入多輪的調整,更符合文化。如果可以做更好的方向設定,就有機會讓他跳脫與刻板印象。以現在的發展來説,以我們常用的語言來表示原住民的文化是免不了的,因爲絕大多數的資料任是以英文,這需要更多的資料投入。

 
綜合交流座談二
引言人:成功大學心理系 胡中凡主任
與談人:成功大學經濟系 林常青主任
成功大學法律系 葉婉如副教授
成功大學不分系 吳易叡副教授


●問題:

Q1:AI 是否會導致人類的依賴性?從大腦神經可塑性的觀點,會不會反而不利人類的心智發展(例如:和額葉有關的高階思考功能下降)?

A1:如果 outcome 是好的,所以是相對的,如果 AI 的穩定性越高,可能會有依賴的這個問題,不知不覺就會認爲他是對的,這樣就會更相信他。

 

Q2:吳教授所提,好像和是從什麼母群抽樣?推論是否有代表性?代表的是何族群有關?過度推論或 under-representative 可能被 AI 放大,但這問題好像做研究一直有,像罕病沒資源研究也類似?重點應該是要清楚這些研究的抽樣代表性,及不做過度推論?最後是如何分配資源放到該放的領域/族群中?(也就是最後說的「脈絡」?)

A2:完全同意,答案已在題目裡面。

 

Q3:AI 存在刻板印象,其本質在於世界從古至今,各地一直持有刻板印象,只是程度輕重有異,不先糾正人們對男女平等、男女刻板印象的認知,試圖透過調整 AI 促進人類在這方面的進步是否本末倒置?

A3:如果光是從技術上面來討論,是不夠的,更重要的是在教育和社會系統上面應該有一個力量,知道性別刻板印象或是任何的刻板印象之下會造成什麽樣的一個傷害。怎樣來透過這樣的認知來對社會做一個調整,這是一個要邁向的目標。AI 有一個好處,我們早期透過問卷來做調查,可是 AI 可以特別是透過語言模型,很快的透過文本來知道個別人的性別刻板印象的傾向,我們也可以瞭解性別刻板印象的維捍或是對特定特點的維捍,這樣我們才可以進步。AI 是一個很好的工具,但背後也有可能隱藏一些刻板印象。在科學史上面,人類對於事實、數據、真實的追求從來都不是我看到這個就是這個,其實是一個虛徑的過程,但真實的數據其實有三個部分,第一個是接近真實,第二個是接近我們的期待,第三個對人沒有傷害。

 

Q4:to 林教授:刻板印象的定義是什麼?如果 AI 呈現出的是和人類一樣的刻板印象或偏見,不好嗎?若刻意「調教」,是否可能又變成不符真實世界的數據/機率,或過度保護的問題?例如:性別要平衡或公平的話,是否也不只對男女性,可能還有第三性或其他類族群也都要放入調教了?但是要讓大家都變成同樣的機率嗎,還是符合實際人數比例的機率?

A4:一般來講大家都想要找到背後的數值,這個背後的數值是要真實的數字還是線性想法來做一個調教,這個部分是大家的共識。很需要大家的參與來決定這個數字要怎麽調整,甚至全世界的組織要一起想想,要怎那麽樣來更促進男女刻板印象上的調整,往上面方向走會比較好。

 

Q5:to 葉教授:是只針對「科技巨擘」規範嗎?科技巨擘的定義是?小公司就不受限嗎?

A5:在整個規範底下,其實是希望更全面的對人工智慧技術或者是掌握這些數據的平臺業者進行規範,他其實是全面性的,不限特定行業的規範,只是他認爲不同平臺的大小,風險都不一樣,所以就區分了一般的中介者,一直到巨大的平臺去。在歐盟的定義底下穩定的用戶如果超過四千五百萬就是一個科技巨臂。

瀏覽數: