AI利用者の技術倫理──大澤氏の発言から考える
最近よく燃えていますね。
謝罪したかと思えば、あれは謝罪ともいえないお粗末なものでした。
自分は悪くないと思っているのがバレバレです。AIのせい。誤解を招くようだから消去する。共産党の批判のため。しかも信者が沸いてますね(でしょうね)。
炎上商法は成功してしまったわけです。
公開講座に資金を出していた3社は、騒ぎが起こってすぐに資金を切りましたが、その後も謝罪はありませんでしたね。
「謝罪」はスイスの会社、streamrから事業用資金を切られた後です。
皮肉にも大学側が一番動きが遅い…。
ここで着目すべきなのは、彼がどの立場に立っているかということです。
「炎上商法」というからには、注目を集めることが目的だったはず。そのために人種差別の話題を持ち出すのは、道徳的には非常に悪質ですが理にかなってはいます。
彼は資本主義ではパフォーマンスの低い労働者は差別されて当然だとして、パフォーマンスの低い中国人労働者(正確には、志願者)を排斥すると述べています。
そうです、彼が立っているのは、あくまで経営者としての立場なのです。選ぶ側、選抜する側。
確かに、パフォーマンスが低いということは当該志願者を選ばない理由になるでしょう。それは採用方針として妥当です。
それは利益追求を目的とする私的企業だからです。
しかし、みなさん述べているように、それを国籍と結びつけることは極めて悪質です。さらに彼は言い訳として、「AIの過学習」を理由にしています。
まあ過学習についてはいろいろツイートがあるので省略します。
問題は、ですね、この差別的発言を信じちゃう人がいるんじゃないか、という点です。
今の段階では中国人憎しの人が寄ってきて彼を擁護しているだけですが(だけというのもなんですが)、
これが本当に関連性出しちゃったAIを元に言われてたらどうでしょうか?大体の人は信じてしまうんじゃないでしょうか。
大澤氏の場合は言い訳が下手なだけなのですが、これはもっと、信憑性が高そうに見せることができるはずです。
関連性はこれくらい、有意確率はこれくらい、といって。
その場合、AIも差別をする「主体」になることができますし、さらに私たちもその影響を受けます。
今回のケースのように、炎上すればするほど遠くまで届き、それだけ多くの人の目に触れることになります。
極めて単純に考えれば、それだけ差別的なAIの判断結果が信じられやすくなる、ということです。
ということは、私たち利用者側も、AIについて知っていなければならない。
技術倫理というとエンジニアや企業だけのものといったイメージですが、実は違うようです。少なくともGoogleの検索エンジンに関してはそれなりに研究の蓄積があり、いろいろ歪められている可能性が明らかになっています(なんというか…有名税ですね)。
データはいつもいつも「正しく」ないですよ。
そもそものデータが偏ってたりノイズ入ってたり実際にはいろいろあって、それそのまんま使える方が稀だし、基本的に人種と貧困層が結びついてたりすると、貧困層を特定しようとしたとき一緒に人種が引き摺り出されてバレて爆発引火炎上してまあ大変、ってなったりします。
まあでも、彼によればデータは正しいんですよね?
それなら差別的発言して1年で会社の提携切られて損失出して、彼の方が売り上げ的にも人格的にもマイナスじゃないですか? 雇ってない人はそもそも損失、出してないですよね?