人工智慧的持續進展已不再侷限於 Silicon Valley 的實驗室和會議室;它正迅速進入最年輕一代的手中。數位領域的巨擘 Google 似乎準備推出專為 13 歲以下兒童量身打造的強大 Gemini AI 版本。這項透過程式碼分析發現的發展,正值社會對精密聊天機器人可能對年輕、發展中心智產生的影響日益不安,且兒童福利倡導者發出明確警告之際。此舉標誌著一個重大轉變,以遠為強大,且潛在更危險的技術,取代了較舊、較簡單的科技。
勢不可擋的浪潮:AI進入遊樂場
兒童的數位景觀正在經歷深刻的轉變。相對直接、基於指令的虛擬助理時代正在式微。取而代之的是生成式 AI 的時代——這些系統旨在以驚人的逼真度進行對話、創作和模仿人類互動。天生好奇且日益數位原生的兒童,已經在與這些技術互動。正如英國兒童事務專員 (Children’s Commissioner for England) 尖銳指出的,一個明顯的擔憂是,年輕人可能會轉向 AI 聊天機器人即時、看似知識淵博的回應,而不是向父母或信任的成年人尋求指導和答案。該專員沉痛的呼籲——‘如果我們希望孩子體驗生動多彩的生活…我們必須證明我們比 Chat GPT 更快回應他們’——突顯了這項挑戰。兒童尋求資訊和連結,而 AI 提供了一個無所不在、不帶評判且迅速的來源。
正是在這樣的背景下,Google 開發 ‘Gemini for Kids’ 的舉動浮現。一方面,這可以被視為主動、潛在負責任的措施。透過創建一個專屬的、大概是圍牆花園 (walled-garden) 的環境,Google 可以為家長提供一定程度的監督和控制,這在兒童存取網路上可用的一般用途 AI 工具時是普遍缺乏的。其邏輯是,如果兒童與 AI 的互動不可避免,那麼提供一個內建安全防護和家長管理功能的平台會更好。
這項倡議也因 Google 自身的策略決策而更顯必要。該公司正積極淘汰其原有的 Google Assistant——一個熟悉的、基本上非 AI 的工具——轉而採用遠為先進的 Gemini。對於已融入 Google 生態系統的家庭,特別是那些使用 Android 裝置和透過 Family Link 管理 Google 帳戶的家庭來說,這種轉變並非可選項。隨著舊版 Assistant 淡出,Gemini 成為預設選項。這種遷移強制要求為不可避免會接觸到這個更強大 AI 的年輕用戶創建保護措施。現有的家長控制功能是為較簡單的 Assistant 設計的,需要進行重大調整以應對像 Gemini 這樣的生成式 AI 所帶來的獨特挑戰。舊框架根本無法應對未來的複雜性。
Gemini的優勢:能力與擔憂加劇
理解即將退役的 Google Assistant 和即將上線的 Gemini 之間的區別,對於掌握利害關係的加劇至關重要。原版 Assistant 主要基於預先編程的回應和直接的指令執行運作。它可以告訴你天氣、設定計時器或播放特定歌曲。它的能力雖然有用,但基本上是有限且可預測的。
Gemini 代表著一次量子飛躍。它建立在大型語言模型 (LLMs) 之上,其功能更像是一個對話夥伴,而非任務導向的機器人。它可以生成文本、撰寫故事、進行對話、回答複雜問題,甚至展現出令其創造者驚訝的湧現能力。然而,這種力量是一把雙面刃,尤其是在涉及兒童時。
LLMs 的本質引入了固有的風險:
- 錯誤資訊與’幻覺’ (Hallucinations): Gemini,如同所有目前的 LLMs,並非以人類的方式’知道’事物。它根據其訓練所用的龐大數據集預測可能的詞語序列。這可能導致它生成聽起來合理但完全錯誤的資訊,通常被稱為’幻覺’。一個詢問歷史事實或科學解釋的兒童可能會收到自信滿滿卻不準確的內容。
- 偏見放大: 用於 LLMs 的訓練數據反映了其吸收的真實世界文本中存在的偏見。Gemini 可能會在不經意間延續刻板印象或對敏感話題呈現扭曲的觀點,在缺乏批判性背景的情況下 subtly 地塑造兒童的理解。
- 不當內容生成: 雖然無疑正在開發安全防護措施,但 Gemini 的生成性質意味著它可能產生不適合兒童的內容——故事、描述或對話——無論是透過誤解提示還是找到內容過濾器的漏洞。
- 缺乏真正理解: Gemini 模擬對話;它不像人類那樣理解意義或語境。它無法真正衡量兒童的情緒狀態或理解敏感個人披露的細微差別。這可能導致回應在語氣上不恰當、無益,甚至在微妙情況下可能有害。
- 過度依賴與擬人化: 像 Gemini 這樣 AI 的對話流暢性可能鼓勵兒童將其擬人化——將其視為朋友或有知覺的存在。這可能培養不健康的依賴,潛在阻礙現實世界社交技能和情商的發展。
這些風險在 Gemini 上比在舊版 Google Assistant 上顯著得多。這種轉變要求採取遠比僅僅移植現有家長控制更為強健和細緻的安全方法。
程式碼中的低語:嚴峻警告浮現
近期由專家與 Android Authority 合作對 Android 上的 Google 應用程式碼進行的調查,揭示了 Google 內部為 ‘Gemini for Kids’ 所做的準備。埋藏在非活動的程式碼字串中,這些字串原用於使用者介面,其中包含了一些能說明計劃中訊息的片段:
- 標題如:
Assistant_scrappy_welcome_screen_title_for_kid_users
— 從 Google Assistant 切換到 Gemini - 描述如:
Assistant_welcome_screen_description_for_kid_users
— 創作故事、提問、獲得作業協助等等。 - 關鍵的是,一條頁腳訊息:
Assistant_welcome_screen_footer_for_kid_users
— Google 條款適用。Google 將按照 Google 隱私權政策和 Gemini Apps 隱私權聲明中所述處理您的資料。Gemini 不是人類,可能會犯錯,包括關於人的錯誤,所以請再次核對。
這個明確的警告——‘Gemini 不是人類,可能會犯錯,包括關於人的錯誤,所以請再次核對’——或許是揭示的最關鍵資訊。它代表了 Google 自身直接嵌入使用者體驗中,對 AI 易錯性的承認。
然而,這個警告的存在引發了深層次的疑問。雖然透明度值得稱讚,但這種針對兒童的免責聲明的效力極具爭議性。核心挑戰在於對兒童提出的期望:能夠’再次核對’ AI 提供的資訊。這預設了許多兒童,特別是 13 歲以下的兒童,尚未發展出的批判性思維、媒體素養和研究技能水平。
- 對一個 8 歲的孩子來說,’再次核對’意味著什麼? 他們去哪裡核實資訊?他們如何評估替代來源的可信度?
- 一個孩子能否區分事實錯誤和關於’人’的細微錯誤? 理解偏見、細微的不準確性或對人物的錯誤描述需要複雜的分析能力。
- 這個警告是否無意中將責任負擔過重地轉移給了年輕用戶? 雖然用知識賦予用戶權力很重要,但依賴兒童不斷核實 AI 輸出的能力似乎是一種不穩定的安全策略。
對於原版的 Google Assistant 來說,這個警告遠沒有那麼關鍵,其事實錯誤通常更直接(例如,誤解指令),而不是潛在地生成完全虛構的敘述或呈現為事實的帶偏見的觀點。為 Gemini 加入這個特定的警告,突顯了該技術根本不同的性質以及所涉及的新風險層級。這表明 Google 意識到 Gemini 可能會以顯著的方式出錯,即使在討論個人時也是如此,並試圖透過用戶提示來減輕這種風險。
家長控制的難題:必要但不完整的解決方案
將 ‘Gemini for Kids’ 與 Google 已建立的家長控制基礎設施(很可能是 Family Link)整合,是一個合乎邏輯且必要的步驟。這為家長提供了一個熟悉的介面來管理存取權限、設定潛在的限制(儘管對於對話式 AI 而言,這些限制的性質仍不清楚),以及監控使用情況。為家長提供切換開關和儀表板,無疑比像 ChatGPT 這樣的平台具有優勢,後者目前缺乏專為在家庭生態系統內管理兒童存取而設計的強健、整合的家長控制功能。
這個控制層對於建立基線安全和問責制至關重要。它賦予家長權力,讓他們就孩子是否以及如何與 AI 互動做出明智的決定。然而,至關重要的是避免將家長控制視為萬靈丹。
幾個挑戰依然存在:
- 生成式漏洞: 傳統的控制通常側重於阻止特定的網站或關鍵字。生成式 AI 不依賴於存取外部被阻止的網站;它在內部創建內容。控制措施能多有效地阻止基於看似無害的提示生成不當內容?
- 跟上進化步伐: AI 模型不斷更新和重新訓練。今天實施的安全防護和控制措施,隨著 AI 能力的發展,可能會變得不那麼有效。維持強健的保護需要 Google 持續的警惕和適應。
- 虛假安全感的風險: 家長控制的存在可能會讓一些家長產生虛假的安全感,導致他們對孩子與 AI 互動的實際內容和性質不那麼警惕。
- 超越內容過濾: 風險不僅僅是不當內容。關於過度依賴、對批判性思維的影響以及情感操縱的擔憂,更難僅透過技術控制來解決。這些需要持續的對話、教育和家長的參與。
雖然 Google 利用其現有 Family Link 系統的能力提供了一個結構性優勢,但這些控制措施在減輕生成式 AI 對兒童的獨特風險方面的有效性尚待證明。它是一個必要的基礎,但並非安全所需的完整結構。
審查的長影:產業與監管機構的關注
Google 進軍以兒童為中心的 AI 並非發生在真空中。更廣泛的科技產業,特別是 AI 領域,正因年輕用戶的安全問題面臨日益加劇的審查。英國兒童事務專員表達的擔憂,在全球立法者和監管機構中得到了呼應。
在美國,參議員 Alex Padilla 和 Peter Welch 已正式要求 AI 聊天機器人公司提供其採用的安全措施的詳細資訊,特別強調了年輕用戶與基於角色和人物的 AI 應用互動時的心理健康風險。這項調查部分是由圍繞像 Character.ai 這樣的平台令人震驚的報告所引發。根據 CNN 的報導,家長們提出了嚴重的擔憂,指控他們的孩子因在該平台上的互動而受到重大傷害,該平台先前曾託管模擬爭議人物的聊天機器人,包括校園槍擊案兇手(儘管據報導這些特定的機器人已被移除)。
區分各種類型的 AI 平台很重要。Google 的 Gemini 定位為通用助理,不同於像 Character.ai 或 Replika 這樣的應用程式,後者明確設計用於模擬個性、角色甚至浪漫伴侶。這些基於人物的 AI 帶有與情感操縱、模糊現實與虛構界線以及潛在有害的擬社會關係相關的獨特風險。
然而,這些事件所突顯的基本挑戰甚至適用於像 Gemini 這樣的通用 AI:當強大的、對話式的 AI 與脆弱的用戶,特別是兒童互動時,存在潛在的傷害。無論 AI 的預期功能如何,生成類人文本和進行看似共情的對話的能力都需要嚴格的安全防護措施。
涉及 Character.ai 的事件突顯了在 AI 領域進行有效內容審核和年齡驗證的困難。Character.ai 聲明其服務不適用於 13 歲以下的未成年人(在歐盟為 16 歲),而 Replika 則有 18 歲以上的年齡限制。然而,據報導,儘管有數百萬的下載量,這兩款應用在 Google Play 商店中僅帶有’家長指導’的評級,這突顯了平台級執行和用戶意識方面可能存在的差距。
核心問題依然存在:AI 系統將驗證和批判性評估的重大負擔置於用戶身上。它們生成大量資訊,有些準確,有些帶有偏見,有些完全是捏造的。成年人常常對此感到掙扎;期望批判能力仍在發展中的兒童能夠始終如一地駕馭這個複雜的資訊景觀並進行勤勉的事實核查,是不切實際且潛在危險的。Google 加入’再次核對’的警告,含蓄地承認了這一負擔,但提供的解決方案可能不足以應對目標受眾。
探索未知領域:AI與兒童的前路
‘Gemini for Kids’ 的開發將 Google 置於一個複雜且充滿倫理爭議領域的最前沿。隨著 AI 日益融入日常生活,完全屏蔽兒童可能既不可行,長遠來看也不可取。熟悉這些工具可能成為數位素養的必要組成部分。然而,向年輕用戶推出如此強大的技術需要非凡的謹慎和遠見。
前方的旅程需要一個多面向的方法:
- 強健的技術保障: 除了簡單的過濾器,Google 需要複雜的機制來偵測和防止生成有害、帶偏見或不當的內容,並特別針對兒童的認知和情感發展進行調整。
- 透明度與教育: 與家長和兒童就 AI 如何運作、其局限性及其潛在陷阱進行清晰溝通至關重要。’再次核對’的警告是一個開始,但需要輔以更廣泛的數位素養倡議。需要教導兒童如何批判性地思考 AI 生成的資訊,而不僅僅是告訴他們去核實。
- 有意義的家長控制: 控制必須超越簡單的開/關切換,提供適合生成式 AI 的細緻管理,可能包括敏感度級別、主題限制和詳細的互動日誌。
- 持續的研究與評估: 兒童與精密 AI 互動的長期發展影響在很大程度上是未知的。需要持續研究來理解這些影響並相應地調整安全策略。
- 適應性監管框架: 現有的法規如 COPPA (兒童線上隱私保護法) 可能需要更新,以專門應對生成式 AI 帶來的獨特挑戰,重點關注數據隱私、演算法透明度和內容生成保障。
Google 推出 ‘Gemini for Kids’ 的舉動不僅僅是一次產品更新;它是邁向未知領域的一步,對兒童發展和數位安全具有深遠的影響。程式碼揭示了對風險的意識,特別是 AI 的易錯性。然而,對兒童’再次核對’能力的依賴突顯了前方的巨大挑戰。成功駕馭這一點需要的遠不止巧妙的程式碼編寫和家長儀表板;它需要對倫理考量的深刻承諾、持續的警惕,以及將年輕用戶的福祉置於一切之上的意願。賭注實在太高,不容有失。