先週、IBMが顔認証技術の販売を取りやめたというニュースを読んだ覚えがあったのですが、AmazonやMicrosoftもこれに追従している模様です。
どうやら最近のBLM運動に影響されているようですが、どういうことなのか、調べてみました。
IBM社の発表
2020年6月8日、米国IBM社は、アービンド・クリシュナCEOが人種平等推進のための政策提案に関する書簡を議会に提出したことを発表しました。
この中でIBMは、警察改革、責任ある技術の使用、スキルと教育機会の拡大、の3つの政策分野について提言しています。
そして技術は透明性を高め、警察が地域社会を守ることを助けるが、差別や人種的不正を助長すべきではないとして、IBMはもはや汎用の顔認識・分析ソフトウェアを提供しないとしました。
またIBMは、集団監視、人種プロファイリング、基本的人権及び自由の侵害、または我々の価値観や信頼と透明性の原則に一致しない目的のために、他のベンダーが提供する顔認識を含む技術の使用に強く反対し容認しない、としました。
Amazon社の発表
IBMの発表の2日後の2020年6月10日、米国Amazon社は、警察によるAmazonの顔認識技術の使用を1年間停止すると発表しました。
AmazonはAWS(Amazon Web Service)でRekognitionと呼ばれる顔認識ソフトウェアを提供していますが、児童虐待、人身売買、行方不明者の捜索などのための組織がRekognitionを利用することは引き続き認めるとしています。
Amazonは、政府に顔認識技術の倫理的使用を管理するための強い規制を導入することを提唱しており、要請があれば支援する用意があるとしています。
Microsoft社の発表
Amazonの発表の翌日2020年6月11日、米国Microsoft社のブラッド・スミス社長はワシントン・ポストのインタビューで、同社は現在米国の警察に顔認証ソフトウェアを販売しておらず、人権に基づいた国内法が制定されるまで警察に販売することはないと述べました。
Microsoft president @BradSmi says the company does not sell facial recognition software to police depts. in the U.S. today and will not sell the tools to police until there is a national law in place “grounded in human rights.” #postlive pic.twitter.com/lwxBLjrtZL
— Washington Post Live (@postlive) June 11, 2020
顔認証技術の問題点とは
批判されている顔認識技術の問題は、人種、性別などによる誤認識率の高さにあるようです。誤認識率は男性よりも女性、白人よりも黒人でより高く、肌の黒い女性の誤認識率が最も高いという研究結果がありました。
これはベースとなっているAIのトレーニングデータの偏りにも原因があるようです。
まとめ
今回のBLM運動の盛り上がりで、人種差別問題と警察の過剰な取り締まりに批判が集まる中で、バイアスの掛かった顔認識テクノロジーを警察が利用することにストップが掛かった形になりました。
元々プライバシーの侵害に敏感な人達が訴え続けていたことだったようですが、BLMが後押しした感じでしょうか。
AI技術はいくら精度を上げても100%正しい結果を保証できるものではないと思うので、要はその技術仕様を理解して正しく利用すればいい話だと思いますが…