個人の持つiPhoneに対してスキャンがはじまります。

今週の木曜日にAppleは、米国内の個人のiPhoneに記録されている全ての画像データに対して、常に監視を行うシステムを導入すると発表しました。

目的は児童虐待画像(児童ポルノ)の拡散を防止するためとのこと。

システムは今年の後半に導入され、違法画像が検知された場合、データが抜き取られ、警察に通報されます。

さらに、システムによる監視は画像だけでなく、言葉にも及びます。

児童ポルノに「関連する言葉」を検索しようとするとするだけで「Siri」や「Search」といった私たちに馴染み深いソフトたちが警告を行うようになるそう。

もちろん新しく導入される監視システムは児童保護団体から歓迎されていますが、セキュリティー研究者たちは、プライバシー監視の始まりだと懸念を示しています。

どのような仕組みで違法画像を検知しているのでしょうか?

今年の後半からAppleが導入しようとしているシステムは「neural Hash」と呼ばれる検出アプリです。

「neural Hash」は、児童ポルノとされた既存の20万枚の画像パターンをAIに学習させたアプリであり、iPhoneにダウンロードされると、似たようなパターンを持つ映像が個人のiPhone内部にあるかをスキャンしはじめます。

そしてパターン一致率が高い画像データが発見された場合、データがiPhoneから抜き取られて他者の手に渡り、警察に通報されます。

つまりAppleは膨大な量にのぼると考えられる被疑者に対して、通報するかしないかの裁量権を持つことになります。

また「neural Hash」は既にiPhoneにあるデータだけでなく、新たに送受信されるデータに対しても監視を行います。

例えば他人から子どもに送られてきた映像を、AIが児童ポルノだと判断した場合、写真は「ぼやける」だけでなく、子どもに対して警告が発せられ、「両親に通知する」とメッセージが表示されます。

また子ども自身が性的に露骨な写真を撮影したり、他者に送信しようとした場合も、同様の措置がとられます。

また監視対象は画像だけでなく言葉にも及ぶそう。

子どもや親が「児童ポルノ」にかかわる単語を検索した場合でもシステムが反応し、即座に警告を行うようになるからです。

これらの新たな監視システムに対して、一部の児童保護団体は歓迎の意向を示しています。

しかしセキュリティーの専門家たちは、大きな懸念を表明しています。

例えばジョンホプキンス大学のグリーン教授は、この種のツールは児童ポルノを見つけるために役立つとする一方で、AIの判断の元となっている「データベース」が、私たち一般の利用者が知ることができない点に問題があると述べました。

AIにターゲットを教えるデータベースを意図的に操作することで、個人のiPhoneから取り出したい画像を児童ポルノから別のものに簡単に変更することができるかもしれないからです。

スマートフォンやそれに連動するデバイスは個人の財務状況や健康状態、位置情報、交友関係など個人情報の宝庫です。

現段階では、新たに導入されるシステムの監視対象は「児童ポルノ」に限られていますが、対象を変更することもできるかもしれません。

例えば著作権を侵害しているソフトや入手ルートの不明な音楽や映像データの検出といった対象にも拡大できるでしょう。

またその他の生活においても監視ソフトをスマホへダウンロードすることが一般化する可能性もあります。

そうなれば最終的には、多くの個人情報が無数のAIによって監視される事態になるかもしれません。

セキュリティーの専門家たちは、このようなシステムが導入されれば「ダムが決壊」したのと同じであると述べています。

もちろん児童ポルノの規制強化は必要です。

しかしその手段をどんなものにすべきかを、企業が決定して良いものなのか疑問が残ります。

以下ソース
https://nazology.net/archives/94197

★関連板★
■えっちな話題なら”ピンクニュース”
http://mercury.bbspink.com/hnews/
■新作AV情報なら”AV情報+”
http://mercury.bbspink.com/avplus/