


2022-04-22
英國的iPhone手機將上線一項確保兒童安全的新功能,允許家長對孩子的手機進行設置,當孩子收到包含裸體的圖片時會自動進行模糊處理。
英國《衛(wèi)報》報道,這項新功能允許父母在iPhone手機上設置一種警報,利用人工智能技術掃描兒童收發(fā)的信息,當警報開啟時,一旦兒童收到的圖片中含有裸體內容,將進行模糊處理,同時兒童將被警告可能包含敏感信息,可疑圖片將被推動到兒童安全組織的資源庫。
如果在兒童自己發(fā)送的圖片中發(fā)現(xiàn)裸體內容,類似的保護措施同樣會生效,同時兒童將被鼓勵不要發(fā)送此類圖片。
對于這項功能涉及到的隱私問題,蘋果公司表示,所有掃描都是在“設備上”進行的,這意味著圖像是由iPhone手機自己分析,蘋果公司并不會看到被分析的圖片和分析的結果。
該公司還表示,該功能的設計目的就是讓檢測裸體的過程局限在設備上。蘋果公司無法訪問這些信息,也不會向家長或其他任何人發(fā)送通知。
在新功能發(fā)布之前,蘋果公司還刪除了幾項有爭議的功能。在最初宣布的方案中,該公司表示,如果13歲以下的兒童發(fā)送或收到此類圖片,父母將會收到自動提醒,但在最終版本中,提醒功能被刪除。
同時,該公司還推出了一項搜索干預措施,對在Spotlight、Siri或Safari中搜索與虐待兒童有關的內容時進行干預。
去年夏季,蘋果公司宣布將在今年推出三項新功能,除了上述兒童通信安全和搜索干預功能之外,第三項功能是在圖片上傳到iCloud之前進行掃描,并報告任何與已知的兒童性虐待圖像匹配的圖片,但這項功能因極具爭議被推遲。
