デジタル・デモクラシーのつづきです。
「AIの研究、開発、実装が最初から人間やコミュニティに根差したものであれば、その弊害に先手を打ち、公平性と人間性を尊重した未来を想像できる」--米国AI倫理研究者のティムニット・ゲブル氏。
アップルで働き、初代アイパッドの信号処理アルゴリズムを開発した経歴を持ち、マイクロソフト時代には、AIによる顔認識技術では、白人男性よりも有色人種の女性を誤認識する確率が高いと実証した経験もある。
彼女は、グーグルで働いていたが、自社の技術を批判的に考察した論文を共同で執筆したため解雇された。
彼女の解雇に反対するオンライン署名には、グーグル社員2695人が賛同、学術・産業・市民社会からも4302人が賛同した。
ここにはAI倫理の研究をAIによって利潤を追求するテック企業の内部で行うことの矛盾と限界を示したと、著者の内田さん。
AIの問題事例を内田さんが紹介している。
●グーグルは、フォトアプリで黒人の画像にゴリラのタグづけをしたことを謝罪(2015)
●マイクロソフトは、会話を学習できるAIロボット「ティ」が差別的な暴言を吐くようになったためサービスを停止(2016)
●ウーバーの自動運転車が死亡事故を起こす(2018)
●アマゾンが差罰的な人材採用AIを廃止(2018)
●フェイスブックが収集するユーザーデータの一部が英国のコンサルティング企業に渡り、選挙戦で利用された(ケンブリッジ・アナリティカ事件2018)
●ゴールドマン・サックスは、アップル・カード利用者の信用スコアを算出する際、女性に不当に低いスコアを付け、カード限度額に差が生じたことが判明(2019)
●フェイスブックは、AIによって「低所得者」と判断された人に対し、融資リスクが高いとして特定の広告を配信しないようにしていたことが判明(20149)
●英国の資格・試験統制機関オフクァルが取り入れたアルゴリズムによる成績予測評価が、労働者階級やマイノリティの生徒に不利な評価を下すと判明(2020)
●韓国で開発された対話型AIロボット「イ・ルダ」が、人種や性的マイノリティに関する差別発言をユーザーから「学習」し、連発したため発売中止(2021)
これらは「単なるミス」では済まされない。
特に採用・人事評価、保険加入、教育、医療、警察の捜査など、私たちの暮らしや人権侵害に直結するケースは深刻。