AppleがiOS 15に、子どもへの性的虐待を防ぐ新機能と、児童ポルノをiCloud 写真から検出する機能を実装することを発表しました。
Appleが子どもに対する性的虐待・児童ポルノを検出する機能を発表
Appleは、メッセージアプリで性的な画像を送受信を検知する子ども向けの機能の実装を発表しました。この機能はファミリー共有によって保護者側からオンにすることができ、この機能で検知された画像は、自動的にぼかされ、子どもには「プライベートな体の一部が写っているかもしれません」という警告が表示されます。
また、13歳未満の子どもの場合、保護者は子どもがクリックしてぼかした写真を見た場合に、通知を受け取ることができます。子どもの警告画面には「もしあなたがこの写真を見たい場合は、両親に通知して確認してもらいます」と表示されます。
もう1つの機能が、性的虐待を行っているユーザーを自動的に検出する機能です。この機能は米国の全米行方不明・被搾取児童センター(NCMEC)が、児童への性的虐待として報告した画像(CSAM画像)を検出します。
一定のしきい値を超えた量のCSAM画像がiCloudアカウントに検出された場合、Appleは手動でそれらの画像を確認し、アカウントの停止とNCMECへの報告を行います。
Appleはこの機能が、「非常にレベルの高い精度」であることを強調しており、検出のプロセスはクラウド上ではなく、アップロード前にユーザー自身のデバイスで行われると説明しています。この機能はiCloud 写真機能がオンになっている場合のみ有効になります。
しかし、セキュリティ研究者はこれらに対し、プライバシーの侵害につながる可能性がある、と指摘しています。
Appleに詳しい海外メディアMacRumorsは、ジョンズ・ホプキンス大学のセキュリティ研究者であるマシュー・グリーン氏が、CSAM画像のスキャンは「本当に悪いアイデア」であると指摘したことを取り上げています。
グリーン氏は数多くの懸念を自身のTwitterの中で示し、Appleがこの機能を実装したことにより「政府はそれをすべての人に要求するでしょう」と述べています。
Whether they turn out to be right or wrong on that point hardly matters. This will break the dam — governments will demand it from everyone.
And by the time we find out it was a mistake, it will be way too late.
— Matthew Green (@matthew_d_green) August 5, 2021
これらの機能は現在ベータテストが行われているiOS 15に実装され、例年どおりであれば9月ごろにリリースされる予定です。
\ 最新記事 /
2024/01/26 21:01 テスラも四苦八苦するバッテリー再発明、Appleが成し遂げるのか? |
2024/01/12 19:22 最大82%オフ! POCOの新型スマホ3機種のローンチ・セールがお得!! |
2024/01/07 10:38 「何かのまちがいでは…?」Amazon初売り〝97%オフ〟がヤバい! |
2024/01/02 19:22 急上昇「Bitcoin(ビットコイン)」価格をさらにブチ上げる「最強投資会社」 |
2024/01/01 23:17 地震・災害時にあなたを救う「00000Japan(ファイブゼロ・ジャパン)」とは? |
2023/12/31 12:37 量子の謎「シュレーディンガーの猫」現象を〝肉眼で見えるサイズ〟で再現する装置 |
2023/12/30 11:57 実は謎だった「ブランコが動く仕組み」を物理学者がようやく解明 |
※収益化について:本サイトに記載されたアフィリエイトリンクを経由して商品の購入などが行われた場合、売り上げの一部が製作者に還元されることがあります。※免責事項:この記事はテクノロジーの動向を紹介するものであり、投資勧誘や法律の助言などではありません。掲載情報によって起きた直接的及び間接的損害に関して、筆者・編集者並びにAppBank 株式会社は責任を負いません。