Appleが、2021年8月に発表したもののプライバシー侵害や国家による弾圧への懸念から批判が集中した性的虐待画像(CSAM:Child Sexual Abuse Material)の検出を断念した理由を詳細に説明しています。脆弱性の悪用や、監視に拡大される懸念が開発断念の理由だったとのことです。 続きを読む ≫