Meta智能眼鏡爆私隱爭議 AI訓練員私生活錄像任睇

穿戴式 AI 裝置普及,Meta Ray-Ban 智能眼鏡憑藉錄影與 AI 功能大受歡迎。然而,瑞典媒體最新調查揭露,相關影像會傳送至第三方外判商進行人手標註,過程中涉及大量極度私隱嘅生活畫面。本文將深入分析 AI 訓練背後嘅運作機制、科技巨頭嘅歷史個案,並為香港用家提供實用嘅私隱保障建議。

Meta智能眼鏡爆私隱爭議 AI訓練員私生活錄像任睇
Meta智能眼鏡爆私隱爭議 AI訓練員私生活錄像任睇

Meta Ray-Ban 智能眼鏡私隱爭議深度報告:AI 訓練背後嘅代價與真相

隨着人工智能(AI)技術由雲端伺服器走入日常生活硬件,智能眼鏡(Smart Glasses)成為咗近年科技界最受關注嘅產品之一。Meta 與 Ray-Ban 合作推出嘅智能眼鏡,標榜可以透過鏡頭與 AI 進行即時對話,幫用家識別物件、翻譯文字或者紀錄生活。然而,便利嘅背後往往隱藏住代價。近期一份來自瑞典媒體《Svenska Dagbladet》嘅調查報告,揭開咗呢款熱門科技產品背後令人不安嘅私隱漏洞。

調查揭密:你嘅私人生活正被「人眼」審視

根據該份於 2026 年 2 月發表嘅調查報告,Meta Ray-Ban 智能眼鏡所收集嘅數據,並唔係單純由冰冷嘅演算法處理。為咗優化 AI 嘅準確度,Meta 將大量用家攝取嘅影像同片段,傳送畀位於肯亞(Kenya)等地區嘅第三方數據標註公司(例如 Sama)。

外判商眼中嘅私隱災難

數據標註(Data Annotation)係 AI 發展中不可或缺嘅一環。簡單嚟講,AI 需要人類話畀佢聽影像入面係乜嘢,佢先可以學識辨認。調查訪問咗多位身處肯亞嘅匿名員工,佢哋嘅日常工作就係喺屏幕上畫框,標註影像中嘅物件。然而,佢哋睇到嘅內容遠遠超出咗一般嘅工作範疇:

  • 極度私人嘅瞬間: 有標註員表示,佢哋經常睇到用家戴住眼鏡出入洗手間,或者喺屋企內進行極度私密嘅活動。
  • 非自願被攝錄者: 報告中提到一個案例,有用家將眼鏡隨意放喺床頭櫃後離開房間,隨後鏡頭拍低咗一名女性入房更換衫褲嘅全過程。
  • 敏感資訊外洩: 標註員喺處理影像時,可以清楚見到用家手中嘅信用卡詳細資料、私人信件內容,甚至係電腦屏幕上嘅個人資訊。
  • 不自覺嘅監控: 雖然部分片段可能係用家刻意拍攝,但調查指出,好多敏感畫面都係喺用家或被攝者唔知情、或者無意識嘅情況下被紀錄落嚟。
Meta在發布會演示中透過Ray-Ban眼鏡呈現的職場安全視角。
Meta在發布會演示中透過Ray-Ban眼鏡呈現的職場安全視角。

核心矛盾:點解 AI 依然需要「人手」介入?

好多讀者可能會問:既然標榜係先進 AI,點解仲要人去睇?呢個正正係目前生成式 AI(Generative AI)同多模態模型(Multimodal Models)嘅發展樽頸。

「監督式學習」嘅必然性

目前的 AI 模型雖然強大,但依然需要大量標註好嘅數據嚟進行訓練。如果 AI 認唔出用家手上嗰件係咩牌子嘅電器,或者分唔清背景入面嘅危險標誌,就需要人類標註員去定義。呢種「Human-in-the-loop」(人類參與回饋)嘅機制,雖然可以提升 AI 嘅反應速度同準確性,但亦變相令用家嘅生活片段直接暴露喺外判員工面前。

回饋機制嘅陷阱

當用家使用「Hey Meta, look and tell me...」呢類功能時,影像會被上傳到伺服器處理。如果 AI 答錯或者唔肯定,後台嘅標註員就會介入修正。雖然 Meta 多次強調有匿名化系統(如人臉模糊化),但調查發現,喺光線不足、角度偏移或者複雜環境下,呢啲保護措施往往會失效,令被攝者嘅容貌清晰可見。

科技巨頭嘅私隱承諾與現實落差

Meta 針對呢次調查嘅回應顯得相當謹慎。媒體曾就語音記錄同影片片段嘅儲存期限提出查詢,Meta 耗時兩個月才給出答覆,且內容主要係重申其現有嘅 AI 私隱政策,並未正面回應特定數據會喺伺服器保留幾耐。

事實上,AI 訓練與私隱保護之間嘅博弈並唔係新事。將數據處理外判去人工低廉嘅國家,透過「小數目嘅人力成本」嚟訓練「高價值嘅 AI 模型」,已經係行業嘅潛規則。雖然員工需要簽署保密協議(NDA),但對於已經流出嘅敏感資訊,保密協議嘅約束力往往顯得蒼白無力。

歷史嘅教訓:Apple Siri 錄音醜聞嘅前車之鑑

Meta 依家面對嘅困境,其實其他科技巨頭都經歷過。最著名嘅案例莫過於 2019 年 Apple 嘅 Siri 錄音事件。

公司 事件年份 爭議焦點 處理結果
Apple 2019 外判商聽取 Siri 錄音,內容涉及醫生診症及犯罪活動。 暫停計劃並道歉,改為用家可選擇是否參與(Opt-in)。
Amazon 2019 員工聽取 Alexa 錄音以改善語音識別準確度。 增加透明度設定,允許用家刪除語音歷史。
Meta 2025-26 智能眼鏡影像被外判商觀看,涉及敏感私人及暴力畫面。 目前仍處於爭議中,強調符合私隱條款。

Apple 喺 2019 年被揭發將 Siri 錄音交畀第三方外判商「分級」(Grading),當時錄到嘅內容甚至包括毒品交易同性行為。雖然 Apple 近年極力打造「私隱守護者」嘅形象,甚至喺 2025 年仲要為相關集體訴訟支付數百萬美元嘅賠償金,但隨着佢哋研發具備相機功能嘅穿戴式裝置(如 AI Pin 或配備紅外線鏡頭嘅 AirPods),同樣嘅風險依然存在。如果 Apple 無法從 Siri 事件中吸取教訓,未來嘅硬件產品同樣會陷入私隱爭議。

分析:智能眼鏡對第三者嘅私隱威脅

除咗用家本身嘅私隱之外,智能眼鏡最受社會爭議嘅地方,係對「非用家」嘅影響。同智能手機唔同,智能眼鏡嘅拍攝行為更加隱蔽。

  • 社交距離嘅消失: 喺公共場所,其他人好難察覺自己係咪正喺度被錄影或者被 AI 分析。
  • 知情權嘅缺失: 雖然眼鏡通常會有細小嘅 LED 燈示警,但喺戶外強光下或者特定距離外,旁人根本無法辨識。
  • 數據轉移風險: 即使攝錄者無惡意,相關影像一旦上傳到雲端進行 AI 訓練,被攝者嘅資訊就已經脫離咗原本嘅控制範圍。

用家嘅實用資訊:點保障自己?

雖然穿戴式 AI 裝置帶來便利,但對於注重私隱嘅香港讀者嚟講,學識如何平衡科技使用與個人安全至關重要。

1. 識別高度敏感區域

建議用家喺進入以下場所時,應主動卸下或關閉眼鏡:

  • 私人空間: 如洗手間、更衣室、醫療診所。
  • 保密工作環境: 涉及商業秘密、電腦密碼或敏感文件嘅辦公場所。

2. 善用私隱設定

雖然 AI 訓練需要數據,但大部分裝置嘅 App 入面都有關於「改善產品功能」或「數據共享」嘅選項。建議用家進入 Meta View App 設定,關閉「分享數據以改善 AI」嘅相關選項,儘量減少影像被傳送到後台人手標註嘅機會。

3. 注意硬件狀態燈

養成觀察裝置 LED 指示燈嘅習慣。如果發現指示燈喺你無操作錄影或 AI 功能時異常亮起,應立即停止使用,並檢查係咪有背景程式正在運行。

4. 了解法律責任

喺香港,雖然目前未有專門針對智能眼鏡嘅法例,但《個人資料(私隱)條例》對於收集他人個人資料有相關指引。如果你喺公共場所或私人聚會中頻繁錄影,應事先取得他人同意,以免引起法律紛爭。

總結:科技發展與道德邊界

Meta Ray-Ban 智能眼鏡嘅私隱風波,揭示咗 AI 時代一個冷酷嘅現實:我哋正喺度用「生活細節」嚟交換「智能便利」。AI 唔係神跡,佢嘅聰明才智背後,往往係成千上萬名低薪勞工喺幕後審視、分類同標註我哋嘅人生片段。

對於消費者嚟講,完全抗拒科技發展未必現實,但保持「資訊透明度」嘅追求係必須嘅。科技公司有責任推動更進步嘅「邊緣運算」(Edge Computing),將數據處理留喺眼鏡本地,而非動輒上傳雲端。喺技術尚未完全成熟之前,用家保持一份警覺,或許係目前最有效嘅自保方案。