Appleの子供の安全保護について知っておくべきこと

Appleの子供の安全保護について知っておくべきこと

Appleは最近、iOS 15、iPadOS 15、およびmacOS Montereyの導入により、この秋に登場する新しい子供の安全保護を発表しました。





これらの拡張された子供の安全機能とその背後にあるテクノロジーについて、以下で詳しく見ていきます。





児童の性的虐待資料のスキャン

最も注目すべき変更は、AppleがiCloudPhotosに保存されている児童虐待の画像を描いた画像を検出するために新しいテクノロジーの使用を開始することです。





これらの画像は児童性的虐待資料(CSAM)として知られており、Appleはそれらの事例を全米行方不明・搾取児童センターに報告します。 NCMECはCSAMの報告センターであり、法執行機関と協力しています。

AppleのCSAMスキャンは、発売時に米国に限定されます。



あなたのiPhoneがウイルスを持っているかどうかをどうやって見分けることができますか

Appleによれば、このシステムは暗号化を使用しており、プライバシーを念頭に置いて設計されています。画像はiCloudフォトにアップロードされる前にデバイス上でスキャンされます。

Appleによれば、Appleの従業員があなたの実際の写真を見るのを心配する必要はありません。代わりに、NCMECはAppleにCSAM画像の画像ハッシュを提供します。ハッシュは画像を取得し、文字と数字の長くて一意の文字列を返します。





Appleはこれらのハッシュを取得し、データをデバイスに安全に保存された読み取り不可能なハッシュのセットに変換します。

関連:iOS15がiPhoneのプライバシーをこれまで以上に保護する方法





画像がiCloudPhotosに同期される前に、CSAM画像と照合されます。特別な暗号化技術(プライベートセット交差)を使用すると、システムは結果を明らかにすることなく一致があるかどうかを判断します。

一致する場合、デバイスは、画像に関するより暗号化されたデータとともに一致をエンコードする暗号化安全バウチャーを作成します。そのバウチャーは画像とともにiCloudフォトにアップロードされます。

iCloud PhotosアカウントがCSAMコンテンツの特定のしきい値を超えない限り、システムは安全バウチャーがAppleによって読み取られないことを保証します。これは、秘密分散と呼ばれる暗号化技術のおかげです。

Appleによれば、未知のしきい値は高い精度を提供し、アカウントに誤ってフラグを立てる可能性が1兆分の1未満であることを保証します。

しきい値を超えると、このテクノロジーにより、Appleはバウチャーと一致するCSAM画像を解釈できるようになります。その後、Appleは各レポートを手動で確認して、一致を確認します。確認された場合、Appleはユーザーのアカウントを無効にしてから、NCMECにレポートを送信します。

ユーザーが自分のアカウントにテクノロジーによって誤ってフラグが付けられたと感じた場合、回復の申し立てプロセスがあります。

新しいシステムでプライバシーの懸念がある場合、Appleは、iCloud Photosを無効にすると、暗号化技術を使用して写真がスキャンされないことを確認しています。あなたはに向かうことによってそれを行うことができます 設定> [あなたの名前]> iCloud>写真

iCloudフォトをオフにする場合、いくつかの欠点があります。すべての写真とビデオがデバイスに保存されます。画像や動画がたくさんあり、ストレージが限られている古いiPhoneがある場合は、問題が発生する可能性があります。

また、デバイスでキャプチャされた写真やビデオは、iCloudアカウントを使用して他のAppleデバイスからアクセスできなくなります。

関連している: iCloud写真にアクセスする方法

Appleは、CSAM検出で使用されているテクノロジーについて詳しく説明しています。 ホワイトペーパーPDF 。あなたはまた読むことができます Apple FAQ システムに関する追加情報が含まれています。

よくある質問の中で、Appleは、CSAM検出システムを使用してCSAM以外のものを検出することはできないと述べています。同社はまた、米国や他の多くの国では、CSAM画像の所持は犯罪であり、Appleは当局に通知する義務があると述べています。

同社はまた、ハッシュリストに非CSAM画像を追加するという政府の要求を拒否するとも述べています。また、サードパーティが非CSAMイメージをシステムに追加できなかった理由についても説明します。

人間によるレビューと、使用されているハッシュが既知および既存のCSAM画像からのものであるという事実により、Appleは、システムが正確であり、他の画像や無実のユーザーがNCMECに報告される問題を回避するように設計されていると述べています。

グーグルマップで面積を測定する方法

メッセージ内の追加の通信安全プロトコル

もう1つの新機能は、メッセージアプリに安全プロトコルが追加されます。これは、性的に露骨な写真を含むメッセージを送受信するときに子供とその親に警告するツールを提供します。

これらのメッセージのいずれかを受信すると、写真がぼやけ、子供にも警告が表示されます。彼らは役立つリソースを見ることができ、画像を見なくても大丈夫だと言われます。

この機能は、iCloudでファミリーとして設定されたアカウントのみを対象としています。保護者または後見人は、通信の安全機能を有効にするためにオプトインする必要があります。また、12歳以下の子供が性的に露骨な画像を送受信したときに、通知を受け取るように選択することもできます。

13〜17歳の子供については、保護者への通知はありません。ただし、子供は警告を受け、性的に露骨な画像を表示または共有するかどうかを尋ねられます。

関連:iOS15がインテリジェンスを使用してiPhoneをこれまで以上にスマートにする方法

メッセージは、デバイス上の機械学習を使用して、添付ファイルまたは画像が性的に露骨であるかどうかを判断します。 Appleは、メッセージまたは画像コンテンツへのアクセスを受け取りません。

この機能は、通常のSMSメッセージとiMessageメッセージの両方で機能し、上記で詳しく説明したCSAMスキャン機能にはリンクされていません。

最後に、Appleは、Siriと検索の両方の機能のガイダンスを拡張して、子供と親がオンラインで安全を保ち、危険な状況で支援を受けるのを支援します。 Appleは、CSAMまたは子供の搾取を報告する方法をSiriに尋ねるユーザーに、当局に報告を提出する方法に関するリソースが提供される例を指摘しました。

誰かがCSAMに関連する検索クエリを実行すると、更新がSiriとSearchに届きます。介入は、トピックへの関心が有害で問題があることをユーザーに説明します。また、問題の解決に役立つリソースとパートナーも紹介します。

Appleの最新ソフトウェアに伴うその他の変更

安全の専門家と共同で開発されたアップルの3つの新機能は、子供たちをオンラインで安全に保つのに役立つように設計されています。一部のプライバシーに焦点を当てたサークルでは機能が懸念を引き起こす可能性がありますが、Appleはこのテクノロジーと、プライバシーの懸念と児童保護のバランスをどのように取るかについて発表しています。

共有 共有 つぶやき Eメール AppleがWWDCで言及しなかったiOS15およびiPadOS15の15の隠された機能

iOS 15の主な変更点についてはすでに聞いたことがありますが、AppleがWWDCから除外したすべての隠された変更点は次のとおりです。

次を読む
関連トピック
  • iPhone
  • マック
  • アップル
  • スマートフォンのプライバシー
  • 子育てとテクノロジー
著者について ブレントダークス(193件の記事が公開されました)

ブレントは日当たりの良いテキサス西部で生まれ育ち、ジャーナリズムの学士号を取得してテキサス工科大学を卒業しました。彼はテクノロジーについて5年以上執筆しており、Apple、アクセサリ、セキュリティのすべてを楽しんでいます。

ブレントダークスのその他の作品

ニュースレターを購読する

ニュースレターに参加して、技術的なヒント、レビュー、無料の電子書籍、限定セールを入手してください。

購読するにはここをクリックしてください