Appleは、今年9月にリリースが予定されているiOS 15およびiPad OS 15でリリースされる新機能に関するプライバシーの懸念に対処するため、新しいFAQ文書を公開した。
Apple が 1 週間前にこれらの機能を発表して以来、オンラインでは多くの議論が交わされています。FAQ ドキュメントのリリースを発表した声明の中で、Apple はプライバシーと子供の安全に関する組織から多くのサポートを受けていると述べています。これらの組織の一部は、Apple に質問を送ってきました。このドキュメントは、それらの質問に回答し、その疑問を和らげることを目的としています。
参照: 2021 年にすべての企業に必要なトップ HR テック ツール
Apple はどのようなアップデートをリリースする予定ですか?
Apple は次の 2 つの機能をリリースする予定です。
1. iCloud写真におけるCSAM(児童性的虐待素材)の検出
CSAM 画像の所持は、米国を含む世界のほとんどの国で違法です。この新機能は、ユーザーが iCloud に保存することを選択した画像をスキャンし、NCMEC やその他の児童安全組織が提供する一連の CSAM 画像ハッシュと照合します。この機能で CSAM が特定されても、自動報告はありません。代わりに、Apple の担当者がレビューを行い、その機能の検出結果を確認します。m か国では、CSAM を所有しているだけでも違法であり、Apple は、そのことを知ったすべての事例を当局に報告する義務があるとしています。
2. メッセージの通信安全性
この機能は、ファミリー共有に設定されている子供用アカウントでのみ機能します。この機能により、保護者はより多くの制御が可能になります。この機能は、そのようなアカウントのメッセージアプリから送信された写真をスキャンし、性的に露骨な画像をチェックします。Appleは、この機能はメッセージアプリで送受信された画像にのみ機能することを明確にしました。この機能が露骨な画像であると識別した場合、写真はぼかされます。子供には警告と役立つリソースが表示されます。子供は安心します。
人々の懸念は何ですか?
Apple がこの新機能を発表した後、プライバシーに関する Apple の決定について多くの批判が寄せられました。主な懸念は、将来この機能が他の種類のコンテンツを探すためにユーザーのデータをスキャンするために使用される可能性があることです。政府機関が Apple に望まない行動を強制する可能性があります。一部の議論では 2 つの機能について混乱が生じましたが、FAQ ドキュメントでは Apple は 2 つの機能を区別し、その範囲を明確に理解できるように多大な努力を払っています。
エピック・ゲームズのCEO、ティム・スウィーニー氏は、アップルの新機能について厳しく批判し、アップルの視点からこの決定を理解しようと「懸命に努力した」が、「これは、有罪の推定に基づいてアップルがインストールした政府のスパイウェアであることは否めない」と述べた。
有名な内部告発者で元NSA職員のエドワード・スノーデン氏は、「どんなに善意があったとしても、Appleはこれで全世界に大規模な監視を展開している。今日児童ポルノをスキャンできるなら、明日は何でもスキャンできるだろう」と語った。
非営利団体の電子フロンティア財団は、「徹底的に文書化され、慎重に検討され、対象範囲が狭められたバックドアであっても、それはバックドアのままである」と述べた。
新しい機能は 9 月までリリースされないと予想されており、まだ開発中です。今のところ、Apple は決定をしっかりと支持しており、新しいアップデートを進める予定です。最新の開発状況を把握するには、Whitepapers.online を購読してください。