その発想は理解できるんだが、まだまだ難しいかもしれない。
数日前、国際輸送系の情報を収集している際に、Twitterの投稿が引っかかった。内容は「この表によると国際郵便の料金が〜」と今年04月01日からの値上げに関する至って健全なものだが、Twitterは「この画像/動画はセンシティブな内容を含んでいる可能性があります」と添付画像を伏せていた。クリックすると日本郵便の国際郵便値上げのお知らせの写真。ヒトは全く写ってないしイラストもゼロ。A4用紙2枚に文字のみ。
Twitterでもこのレベルだし、2018年にTumblrが導入したAIは誤認どころの騒ぎじゃなかった。
アップルやグーグルならもっと精度を高められるとは思うが、今の段階で撮影の可否をAI判定に委ねてしまうと利便性が大きく失われてしまい、場合によっては緊急時の証拠写真(不審者など)がAIの誤判定で撮影・送信できないなど、自分達の首を締めることになりかねない。
またAIの実装をどこに置くかが重要になってくる。iPhoneに標準インストールされているカメラアプリにAIを入れた場合、余所のカメラアプリ(またはSNSアプリのカメラ機能)はこのAIを介さず写真が撮影できてしまうのでほとんど意味をなさない。
これを阻止するためにはカメラ(ハードウェア)とAIを統合し、あらゆるiPhone上のソフトウェア(アプリ)から撮影機能を利用する際にAIを迂回できないようにするしかない。すると例えば銀行口座開設などの時に、口座開設専用アプリから顔写真入りの身分証と自分の写真を撮って送るなどの作業中に誤判定で「撮影できません」なんてことになる可能性がある。
※例えば全身肌色のタイツを着たら裸だと誤認されて撮影できないとか。すると不審者=肌色タイツが定番化される。
これがあまりにも鬱陶しいと、USB外付けカメラなどが大量に出回り、もはや手に負えなくなる。
また別の問題として、AIを迂回できないカメラ機能とは、常にアップルやグーグル(のAI)が一旦被写体や画像をスキャンするということであり、そもそもなぜ世界中の人々が撮影の許可・不許可を彼らの頭脳(人工知能)に委ねなければならないのかという話しにもなる。
※顔認証機能のように精確さを求めるなら「最初に裸の登録が必要です」ということになり、例えAI相手でもキモチワルイと思うのが普通じゃないだろうか。AIはサンプルがないと学習できず、子供の裸サンプル画像は集めるのは困難だろうことから、本人がAIに学習させる必要がある。
本来「入力」にはフィルターをかけるべきじゃない。なぜかというと、音や写真、映像といった入力情報そのものがAIなどの人為的なフィルターを通ってしまうと、存在するデータ全てのオーガニック性が失われるから。
簡単な例では「不審者を見た」と写真を撮っても、AIを介している限りそれはアップルやグーグルによって人工的な操作が加わっていないかという疑惑が常に付きまとうということ。例えば黒人は不審者として見なされやすいとか、アラブ系はテロリストと判定されやすいとか、機械学習の際に与えられるサンプル数次第で偏る。
またカメラに防犯用AIを入れたら次は音声もという流れになり、同様に「身代金要求の電話を録音した」と言ってもその音声が生データである信憑性が薄れてしまうということ。場合によっては汚い言葉を使っていると録音できないとか。
外付けカメラによる撮影も含め、端末に写真が入ること自体を防ぐのはかなり難しい。アンチウイルスソフトのように常にファイルを全スキャンするしかなく、冒頭の通り誤判定のアラートが煩わしくなるだろう。
※ちなみに予め暗号化された画像データの被写体はスキャンできないし、クラウド上の画像もスキャンできないので、撮影機能・手段さえ調達すれば送信を防ぐことはできないに等しい。
現時点ではiOSのペアレンタルコントロールに被写体または画像を判定するAIのオンオフ機能を設け、保護者が設定した子供の端末のみ試験的に導入するのはありかもしれないが、盗撮する大人達の端末にこの設定ができないので、子供の自撮り防止と大人の犯罪は分けて考える必要がある。
0コメント