Meta啟用18歲以下用戶隱私及安全保護措施 透過AI技術過濾惡意留言及私訊
【記者蕭文康/台北報導】Meta亞太區產品公共政策總經理蔡錦文今分享該公司在台灣推動青少年帳號保護措施的最新進展,展現Meta致力於打造青少年網路安全與健康使用環境的長期願景與具體行動。蔡錦文表示,Meta將持續與家長、專家及非政府組織(NGO)密切合作,通過政策制定、產品優化及資源整合,為青少年及其家庭提供全方位的網路保護方案。衛福部政務次長呂建德指目前正積極推動兒童及少年福利法及兒童性剝削防治條例修法作業結合法律、科技與社會力量防堵網路詐騙與外部滲透攻擊,共同打造安全友善的數位環境。
18歲以下用戶將自動納入青少年帳號範疇,系統會啟用最高等級的隱私與安全保護措施
自去年起,Meta已在台灣臉書、Instagram(IG)、Threads及Messenger全面推行青少年帳號安全設置。凡18歲以下用戶將自動納入青少年帳號範疇,系統會啟用最高等級的隱私與安全保護措施,保障青少年免受陌生人騷擾及不適當內容的干擾。
蔡錦文指出,設計青少年帳號政策主要針對家長最關注的三大問題:一、誰在與孩子互動;二、孩子在網路上花費的時間;三、孩子接觸到的內容是否適齡。
系統同時透過AI技術過濾惡意留言及私訊,降低霸凌及不當互動風險
為此,Meta實施以下核心措施:首先,青少年帳號設定為私人帳號,只有獲得本人同意的追蹤者才能看到內容並互動。系統同時透過AI技術過濾惡意留言及私訊,降低霸凌及不當互動風險。
此外,只有已建立聯繫的好友可發送訊息或標註青少年,嚴格限制陌生人接觸。其次,針對使用時間,青少年帳號啟動每日使用提醒機制,使用超過60分鐘即跳出通知,鼓勵適度休息與平衡生活。另設置「睡眠模式」,每日晚間10點至次日早上7點自動靜音通知,以保障青少年有良好睡眠而不被打擾。
第三,關於內容過濾,Meta結合電影分級標準與家長意見,利用AI系統嚴格篩選所有推薦與搜尋內容,確保青少年無法接觸13歲以下不適宜的內容,涵蓋用戶上傳、限時動態、留言互動等多個平臺環節。
Meta推出「家庭中心」一站式平台,整合家長監控工具與教育資源
蔡錦文強調,所有上述保護功能均為Meta內建設定,家長無需額外操作。另一方面,青少年若要調整安全設定,16歲以下者須取得家長同意,這套設計旨在平衡青少年自主權與家長監護責任,並鼓勵家庭內展開開放式對話,共同維護健康網路生活。
為加強家長對青少年網路行為的掌握,Meta推出「家庭中心」一站式平台,整合家長監控工具與教育資源。家長可透過家庭中心獲取孩子使用時間報告、設定使用時段限制,甚至查看孩子追蹤的帳號及通訊對象。當青少年封鎖或舉報帳號時,家長亦能收到通知,及時了解孩子在網絡上的安全狀況。
蔡錦文也分享Meta未來將深化在地合作,包括與iWIN合作推動校園網路安全教育,利用親子創作者影響力推廣安全工具,並透過官方粉絲專頁及影音頻道進行家長教育與溝通。這些多管齊下的行動目標是透過公共政策及產品創新,繼續營造安全、包容且負責任的網路環境,讓家長放心,青少年安心探索數位世界。
他強調,「我們理解網路安全無法靠單一企業或單方面力量解決,必須結合社會各界專業,共同聆聽與協作,這也是Meta始終秉持的態度。」同時期盼透過不斷努力及持續改善,未來在青少年安全議題上,Meta能與家長、學校及多元夥伴攜手前行,共同守護台灣青少年的網路安全與身心健康。
衛福部推動兒童及少年福利法及兒童性剝削防治條例修法作業
衛福部政務次長呂建德在致詞時指出,新世代的兒童正面臨數位時代的諸多挑戰與機會。在這個網路普及的時代,青少年的網路使用安全成為社會關注的重點。他說,衛福部在114年度設立性影像處理中心,積極受理及處理網路不當內容案件,並通報多種散播平臺,其中雲端空間占40.4%、社群網站占25%、部落格18.3%,即時通訊軟體及社群平臺占比也不容忽視。
呂建德表示,網路霸凌、性隱私外洩、網路成癮、性剝削與詐騙等問題廣泛存在,家長與社會對於兒少網路安全的關切日益增強。他特別肯定科技META在預防與管理青少年網路內容上的積極作為,採用電影分級制度,對18歲以下用戶預設適合13歲以下兒童觀看的內容,以減少不當資訊的暴露。
他提到,META導入AI視覺分析技術,提升未成年帳號識別與移除效率,有效防止青少年接觸有害內容。呂建德呼籲社會各界加強公私協力,建立多層次守護機制,從源頭端與系統端共同防範青少年網路風險。他透露近期也拜訪相關部會及科技業者,期望推動法律修訂與技術改革,提升兒童及少年網路安全保障。衛福部目前正積極推動兒童及少年福利法及兒童性剝削防治條例修法作業,結合法律、科技與社會力量防堵網路詐騙與外部滲透攻擊,共同打造安全友善的數位環境。



