2023年8月13日星期日
【主持人】甘偵蓉|清華大學人文社會AI應用與發展研究中心博士後研究學者
【講者】Part1:詹寶珠|成功大學電機資訊學院院長
https://www.youtube.com/watch?v=z2xC91ae6hE
00:00 主持人開場人本AI 1788年康德Immanuel Kant出版《實踐理性批判》,初次提到「人即目的」的觀念,他寫道:人決不能被任何人,甚至不能被上帝,只當作工具,而不同時作為目的本身。
05:25 詹寶珠老師演講
06:19 許多工作被自動化取代,但多為機械性、繁重工作,技術進步改善了工作環境。
07:57 電腦普及導致打字等工作消失,生成式AI如ChatGPT用於協助創作。
12:04 生成式AI應用包括寫作和圖片生成,但技術限制要被理解,它們不等同於人類創造力。
13:06 ChatGPT等生成式AI基於大量資料和關聯性生成內容,並非全新創作,是從過去學到的關聯性中生成新內容。
19:55 在教育中的應用:可以生成文章、影像,協助教師為學生修改文章、提供提示,以及創建圖像。能為學生和老師提供指導、提示、活動規劃等幫助,特別對偏遠地區的教學有用。
潛在風險:
17:10 錯誤信息:ChatGPT可能提供錯誤的資訊,引用不存在的商家、案例等,需要仔細驗證。
22:20 創造性不同:ChatGPT的創造性是基於大量的數據和模型調整,並不是突破性的創造,應注意其限制。
23:28 依賴過度:過度依賴ChatGPT可能降低學生自主學習和批判思考的能力。
倫理與法律問題:
27:13 隱私與機密:需注意ChatGPT可能吸收敏感資訊,導致隱私和機密風險。
28:04 作者身份:ChatGPT不能成為正式文章的作者,需標註使用方式並避免剽竊。
32:24 規範與政策:國際學術界關注ChatGPT的合理應用,並討論相關規範和政策。
教育應對:
34:31 提升理解:學生和老師需充分理解ChatGPT的能力和限制,避免過度依賴。鼓勵學生在問題下思考,而不僅僅依賴ChatGPT提供答案。
35:35 國際規範參考:可以參考國際相關報告,如科學教育辦公室和UNESCO的AI教育指南。
【講座特稿】✨AI世代的教與學(上):https://case.ntu.edu.tw/blog/?p=42989
【講者】Part2:陳宜欣|清華大學資訊工程學系教授
https://www.youtube.com/watch?v=dKNYTPDa5WA
00:00 主持人開場
01:57 全球首個有序的人工智慧課程地圖,提供學生清晰的學習路徑。
07:08 第3期計畫加入更多應用產業,跨領域連結和倫理教育,強調學生需要理解和推理能力。
08:29 系列計畫的目標是培育學生解決不同領域的問題。
14:28 人工智慧不是簡單地將數據輸入即可解決問題,而是需要深入思考問題的本質和意義。
15:49 定義問題的能力:重要的是能夠準確地定義問題,然後使用人工智能技術來驗證和評估解決方案。教育應該強調如何定義問題,而不僅僅是解決問題。
17:57 世界不是只在書本裡頭,是在我們的生活周遭。需要去找到自己自身的價值到底在哪裡?重點是讓自己開心。
18:29 問題的複雜性可能使人們容易只看到問題的單一面向,需要去適應和使用不同的方法來解決問題。
20:29 數學和概率統計在AI中非常重要,因為它們是訓練和理解模型的基礎。
22:09 教育需要重新思考如何評估學生,以適應未來AI時代的需求。
25:06 教師是某一個學科的大使,只是在每一天透過不同的方式跟學生相遇,讓學生們有無限的可能性,不要把學生侷限在一個特定的觀點中。
【人物專訪】✨探尋的邏輯——專訪陳宜欣教授 https://case.ntu.edu.tw/blog/?p=42471
【講者】Part3:嚴成文|中山大學機械與機電工程學系特聘教授
https://www.youtube.com/watch?v=jyVZSYS2rZs
00:00 主持人開場
00:58 五種方法學:系統分析、理論模式、實驗、電腦模擬、人工智慧。
03:40 AI掌握話術,但不具備真實的生活經驗和情感,無法替代人類經歷的悲歡離合,無法做出創新的決斷。
07:30 ChatGPT等大型語言模型可能改變世界,其具備支持性和同理心的對話,但仍需慎重使用。
09:22 知識傳遞主要透過文字和語言媒介,類似圖書館的功能,大型語言模型可以像活的圖書館一樣提供知識。
10:02 未來,人們可能能夠創建虛擬的「數位分身」以虛擬世界互動。
11:30 進入「伯樂時代」意味著人們需要選擇適合他們需求的AI工具,並學會如何提出良好的問題。
14:16 老師的態度和人格特質對學生的成長和學習也具有深遠影響。
15:18 勇氣無法由AI教導,教師的重要工作之一是激勵學生的學習興趣,培養主動學習的能力以及建立學以致用的信念,這些都是AI無法實現的。
16:44 肝癌存活分析和大學畢業率預測,AI無法預測人類的行為和決策,AI僅能處於教師的第一到第二個階段之間。
20:21 AI是一個有用的工具,可以加速解讀和應用資訊,但最終應用資訊還需要人類參與。
21:17 AI應該放大人們的能力,使人們能夠更好地幫助他人並更好地互相服務和理解。
【人物專訪】✨人工智慧和睡眠醫學,是我生命中的兩道光——專訪嚴成文特聘教授 https://case.ntu.edu.tw/blog/?p=41626
謝謝 陳教授
「信息茧房」是一個形象的比喻,指的是人們在網路信息時代中,習慣性地被自己的興趣所引導,從而將自己的生活桎梏於像蠶茧一般的「茧房」中。
這種現象會導致我們的生活逐漸固定化,限制了我們接觸新鮮事物的渠道,甚至對心理健康造成危害。
透析
信息茧房的危害:
1.網路群體極化:
人們在網路上形成類聚,只關注自己觀點的「蠶茧」,拒絕接收其他人的合理看法。這使得我們接觸的信息變得單一化,容易產生狹隘、盲目自信等不良心理。
2.社會黏性削弱:
網路技術賦權,使人們只關注自己喜愛的信息,不接觸與自己觀點不同的內容。
突破「信息茧房」的方法:
1.選擇性關注和篩選:
審視信息來源和內容,選擇性地關注對自己有益的、有意義的信息。
2.制定計劃:
管理時間和信息,確保花費時間在對目標和重點有用的信息上。
總結
在網路時代,我們應該警惕「信息茧房」的危害。主動尋找不同觀點、接納他者,才能拓寬視野、避免陷入偏見,并保持理性思考能力。
啟示與省思
作為現代人,我們需要保持開放心態,不斷學習、探索新知識。只有跳出「信息茧房」,才能更好地適應社會變革和發展。
從我的iPhone傳送
沒有留言:
張貼留言