如何與孩子談論人工智慧:一份簡單實用的指南
我最近有幸參加了一個名為「…」的計畫。 Skype 一位科學家這個計畫旨在連結來自不同學科(生物學家、植物學家、工程師、電腦科學家等)的科學家和兒童班級,共同探討我們的研究工作並解答孩子們的問題。我非常熟悉如何與成年人討論人工智慧和機器學習,但這是我第一次真正靜下心來思考如何與孩子們談論這個話題,這對我來說是一個有趣的挑戰。今天,我將分享一些我在這個過程中想到的點子,希望能對那些與孩子有某種連結的人有所幫助。這些想法為如何以引人入勝且易於理解的方式將複雜的人工智慧概念簡化,從而更好地向孩子們解釋提供了寶貴的見解。

準備解釋一個概念
無論面對怎樣的聽眾,準備演講時我都會遵循一些基本原則。我必須非常清楚自己要呈現的訊息以及聽眾在演講後應該掌握的新概念,因為這決定了我分享資訊的各個層面。此外,我希望演講內容的複雜程度能夠與聽眾的現有知識水平相匹配——既不能過於簡化,也不能超出他們的理解範圍。
在日常生活中,我並不一定完全了解孩子們對人工智慧(AI)的實際了解程度(或他們自認為的了解程度)。我希望能夠根據聽眾的程度調整我的講解方式,但就目前的情況而言,我對他們的背景知識了解甚少。有時,我驚訝地發現孩子們對人工智慧領域公司間以及跨國競爭等概念非常熟悉。在決定如何建構內容時,一個有用的練習是嘗試使用一些聽眾已經比較熟悉的概念或技術來舉例說明。這樣做也能幫助你更了解聽眾的背景知識。此外,如果發現解說方式不合適,要做好隨時調整的準備。我喜歡在講解開始時問孩子們一些關於他們對人工智慧的看法和了解程度的問題,這樣我就可以在深入講解之前先了解一些情況。
理解技術:人工智慧模型基礎
尤其是在兒童導向的演講中,我的重點在於幾個關鍵點。讀者都知道,我一直大力倡導向非專業人士來講解如何訓練大型語言模型(LLM)和其他人工智慧模型,以及這些模型所使用的訓練資料。這對於幫助他們對這些模型的運行結果建立切合實際的預期至關重要。我認為,任何人,包括兒童,都很容易被大型語言模型所展現的語氣、聲音乃至「個性」所吸引,從而忽略這些工具的實際局限性。
挑戰在於如何用淺顯易懂的方式向他們解釋,但一旦你解釋了訓練的原理——比如LLM模型如何從書面示例中學習,或者擴散模型如何從文本-圖像對中學習——他們就能自行推斷出潛在的結果。隨著人工智慧代理變得越來越複雜,其底層機制也越來越難以釐清,使用者理解支撐這種能力的基本建構模組至關重要。
對我來說,我會先解釋訓練的一般概念,盡量避免使用專業的術語。和孩子們溝通時,使用一些具體的語言有助於他們理解。例如,「我們給電腦輸入大量訊息,讓它們學習其中的模式。」 然後,我會舉例說明這些模式,例如語言中的模式或圖像中的像素,因為「模式」這個詞本身太過籠統和模糊。接著,「它們學習到的這些模式是用數學公式表示的,而這些數學公式就構成了『模型』。當我們給模型輸入新的資訊時,它會根據已經學習到的模式做出相應的反應。」 接下來,我會舉一個更全面的例子,解釋一個簡化的訓練過程(通常是時間序列模型,因為它很容易可視化)。之後,我會根據聽眾的理解能力,更詳細地講解不同類型的模型,例如神經網路和語言模型的差異。
人工智慧的倫理及外部影響
我還想探討一下人工智慧相關的倫理問題。我認為小學、國中、高中及以上年齡層的孩子完全有能力理解這些問題。 阿拉伯語 人工智慧技術,包括大型語言模型(LLM),可能會產生社會影響。在我看來,如今許多孩子對全球氣候變遷和環境危機的理解已經相當深入,因此談論運行大型語言模型所需的能源、水和稀有礦物資源並非不合理。重要的是,你的解釋要簡單易懂,並且適合他們的年齡。正如我之前提到的,要使用與聽眾生活經驗相關的例子。我們應該關注… 人工智慧倫理 和 人工智慧的影響 關於社會和環境。
以下是一個從兒童體驗過渡到人工智慧對環境影響的例子。
「你們不都用Chromebook做作業嗎?你們有沒有註意到,當你們把筆記型電腦放在腿上長時間工作時,電腦背面會發熱?比如同時打開很多文件,或者看很多視頻的時候?這種發熱現象和大型計算機(服務器)在訓練或使用大型語言模型(LLM)時(例如訪問chatGPT網站時)的發熱現像是一樣的。」
「支撐 chatGPT 運行的數據中心擠滿了伺服器,所有伺服器同時運行,溫度會顯著升高,這對機器不利。因此,這些數據中心有時會使用冷水和一些化學物質的混合物,通過管道輸送到所有伺服器的正上方,以幫助冷卻機器並維持其運行。然而,這意味著大量的水與化學物質混合後,在流經這些系統的灌溉過程中可能無法飲用其他農業。
「有時,這些數據中心會使用大型空調,運行耗電量巨大,這意味著我們的家庭或企業可能面臨電力短缺。此外,電力有時是通過發電廠燃燒煤炭產生的,這會向空氣中排放廢氣,加劇污染。”
這能將孩子的經驗融入對話,讓他們更容易理解相關概念。你可以用孩子熟悉的藝術家和創作者的例子,與他們探討版權倫理和內容盜竊等問題,而無需深入探討知識產權法的複雜細節。深度偽造、色情內容和其他形式的操縱也是許多孩子熟悉的話題,讓他們意識到人工智慧技術對個人和社會構成的風險至關重要。
這可能會令人恐懼,尤其對年幼的孩子來說,當他們開始了解人工智慧的一些不道德應用或其帶來的全球性挑戰,並意識到這些技術的力量有多強大時。例如,孩子們曾問我:“如果有人教人工智能做壞事,我們該如何解決?” 我真希望我能給出更好的答案,因為我基本上只能說:“人工智能有時確實掌握了做壞事的信息,但也有很多人在努力讓人工智能更安全,防止它分享任何有害信息或作惡指令。”
解構「真理」的概念
人工智慧的人性化為成人和兒童都帶來了一個實際問題——我們往往更信任友善、自信的聲音。問題很大程度上在於,大型語言模型(LLM)的聲音雖然友善、自信,但卻常常出錯。媒體素養的概念多年來一直是教育學的重要議題,將其範圍擴展到包括大型語言模型(LLM)是一種自然的發展趨勢。正如學生(以及成年人)需要學會批判性地看待他人或公司創作的資訊一樣,我們也需要批判性地、深思熟慮地看待電腦生成的內容。這包括了解這些技術的限制。
我認為這與理解技術也息息相關。當我解釋大型語言模型(LLM)的任務是學習和複製人類語言時,最簡單的解釋是根據前面的詞語識別序列中下一個可能的詞語,那麼我說LLM無法理解「真理」的概念就合情合理了。真理並非訓練過程的一部分,同時,即使對人類而言,真理也是一個極難理解的概念。 LLM或許經常能正確識別事實,但由於機率的本質,盲點和潛在錯誤不可避免地會不時出現。因此,使用LLM的兒童必須充分意識到該工具的局限性。
然而,這一課的價值遠不止於使用人工智慧,因為我們所教導的是如何處理不確定性、模糊性和錯誤。正如他所指出的: Berman 與 Agawi (2023)「在人工智慧主導的世界中,教育意味著學習如何應對模糊、片面和模棱兩可的情況,這反映了人與技術之間錯綜複雜的關係。」我很喜歡這種框架,因為它觸及了我經常思考的一個問題——大型語言模型(LLM)是由人類創建的,反映了人類對人類創造內容的解讀。當孩子們了解模型是如何形成的,模型並非完美無缺,以及模型的輸出源自於人類創造的輸入時,他們就能更深入地理解當今社會技術運作的模糊性。 (事實上,我強烈推薦所有考慮如何教孩子人工智慧的人閱讀這篇文章。)
關於圖片和影片的附註
正如我之前提到的,人工智慧生成的影片和圖像內容,也就是所謂的“人工智慧垃圾”,氾濫成災,引發了許多棘手的問題。我認為,對孩子進行這方面的教育至關重要,因為視覺效果引人入勝的內容很容易讓孩子吸收錯誤訊息甚至徹頭徹尾的謊言。對大多數孩子來說,這類內容與實際創作過程相去甚遠,因為它們大多在社群媒體上廣泛傳播,而且不太可能被正確分類。除了教導一些基本的媒體素養技能,例如「如果好得令人難以置信,那它很可能就是假的」和「要核實你在這類帖子中看到的內容」之外,與孩子討論人工智慧生成內容的典型特徵也很有幫助。教導孩子如何核實事實和資訊來源,對於提高他們區分真假內容的能力至關重要。
利用人工智慧作弊
儘管我們已經解釋了大型語言模型(LLM)的倫理問題和出錯風險,但這些人工智慧工具確實非常實用且極具吸引力,因此一些學生可能會利用它們在作業和學習中作弊,這也就不足為奇了。我認為我們只需要和他們談談,解釋學習的目的是為了掌握完成作業所需的技能,如果他們不學習這些技能,就會錯失未來學習和生活中所需的能力……但我們都知道,孩子們很少能做到如此邏輯清晰。他們的大腦仍在發育,這類事情有時甚至對成年人來說也難以理解。要理解人工智慧對教育的影響,就需要深入了解這些工具的功能及其對基礎技能發展的潛在影響。
基本上有兩種方法:一是想辦法增加作業難度,甚至讓學生無法作弊;二是將人工智慧融入課堂教學,假設學生未來能夠使用這項技術。目前,在課堂上由老師指導完成作業,可以讓學生有機會學習一些必要的技能,而無需使用數位科技。然而,正如我之前提到的,媒體素養教育現在應該包含知名模型,而且我認為,由經驗豐富的教師指導學生使用這些知名模型,可以具有重要的教學價值。此外,在教師直接監督之外完成作業,是不可能真正做到「讓作業免受人工智慧幹擾」的,我們應該認識到這一點。當然,我並不想把這件事說得太簡單──詳見下文。 延伸閱讀 為了查閱大量關於課堂人工智慧素養教學所面臨挑戰的學術文章,我們發現,教育工作者不僅要跟上技術發展的步伐,調整教學方法以適應時代,還要讓學生掌握負責任地使用人工智慧所需的知識,這是一項艱鉅的任務。此外,教育工作者還必須專注於培養學生批判性地評估人工智慧產生的資訊的能力,並提升他們的批判性思考技能。
從性教育中汲取經驗:人工智慧的啟示
歸根究底,問題在於,在一個人工智慧無所不在的世界裡,無論在課堂內外,我們究竟該向孩子推薦什麼,又該避免什麼。我很少提倡禁止或壓制某種觀點,但我相信,全面、科學且符合年齡特徵的性教育就是一個很好的例子。如果孩子們沒有獲得關於自身身體和性方面的準確訊息,他們就無法在這個領域做出明智且負責任的決定。當孩子們在充滿挑戰的環境中做出艱難抉擇時,成年人不會在場強制執行,因此我們需要確保孩子們掌握必要的信息,以便他們能夠獨立、負責任地做出這些決定。這不僅包括事實訊息,也包括道德指導。同樣,我們必須確保學生全面了解人工智慧的可能性和風險,以便他們能夠在數位時代有效且負責任地使用它。
人工智慧應用中的責任建模
我認為另一點也很重要,那就是成年人在對待人工智慧時也必須樹立負責任的行為榜樣。如果教師、家長以及孩子生活中其他成年人對人工智慧缺乏批判性認識,他們就無法教導孩子如何成為這項技術的批判性消費者和思考者。
這篇文章引發了 《紐約時報》最近的一篇文章 這篇文章對教師如何使用人工智慧的討論令人有些失望。它並沒有展現出對人工智慧的深刻理解,反而將其與基礎統計學混為一談(教師分析學生數據以根據學生水平調整教學並非人工智能,也並非什麼新鮮事或問題所在),但它確實引發了關於兒童生活中成年人如何使用人工智能工具的討論,並提到了這些成年人需要以身作則,示範透明且批判性地使用人工智能。 (文章也簡單提及了營利性產業將人工智慧推向課堂的問題,這似乎是一個值得深入探討的問題——或許我以後會就此撰文。)
為了反駁文章中的一個論斷,我不會抱怨教師使用大型語言模型(法學碩士為了對書面資料進行初步評估,只要他們監控並驗證輸出結果,就可以進行評估。如果評估標準圍繞著文法、拼字和寫作規範展開,那麼根據其訓練方式,大語言模型可能適用。我不想在不進行至少粗略考察的情況下就盲目信任大語言模型,但事實上,它被設計用來理解人類語言。認為「學生必須寫,所以老師也應該評估」的想法是荒謬的,因為這項練習的目的是為了讓學生學習。教師已經掌握了寫作規範,而這個計畫的目的並非強迫教師學習只能透過人工評估才能獲得的知識。我相信《紐約時報》也明白這一點,他們的報道主要是為了吸引點擊量,但這一點值得明確指出。
這一點讓我們回到前文關於理解技術的討論。如果你對訓練流程瞭如指掌,就能判斷流程能否發展出能夠勝任任務的工具。但自動化評估至少在教育領域已經存在了幾十年——任何填寫過成績單的人都知道這一點。
這項技術的發展正迫使我們的教育體系在某種程度上做出調整,但我們現在無法將這股力量重新封存。人工智慧無疑能在某些方面對教育產生積極影響(例如個別化教學和解放教師時間,使他們能夠將更多精力投入到直接服務學生上),但就像大多數事情一樣,我是個現實主義者。我想大多數教師都清楚,在引入「大語言」模式之後,教育不能再像以前那樣了。法學碩士我們的生活。
結論
孩子們比我們有時想像的要聰明得多,我相信他們完全有能力理解人工智慧在我們世界中的意義。我的建議是,要坦誠透明地向孩子介紹這項技術的現實,包括它對我們個人以及整個社會帶來的優點和缺點。我們使用人工智慧的方式會給孩子樹立榜樣,無論好壞,他們都會密切注意。因此,我們必須謹慎行事,謹慎行事。我們必須向他們解釋人工智慧的可能性和挑戰,並強調其合理和負責任的使用方式。
評論被關閉。