プロジェクト・ベリタス:Google内部告発者の暴露


お断り:以下の字幕は全体の1/4程度になっています。画像をクリックして動画全体を見ることができます。

私がプロジェクトベリタスに来た理由としては、
人々が知る必要があるからです、
実際にGoogleのビジネス決定で何が起こっているかをです。
彼らが何をしているか。
何してるのか、内部で従業員が実際に何を見ているのかは違うのです。
我々がAI原理を」立ち上げた理由としては、
人々が一線を引かないからです。
つまり、こうは言わないんです、何がフェアで何が公正かと。
ですから、我々は巨大企業ですから、我々が言おうと。
今の大統領に投票した人は、我々のフェアさの定義に同意しない人なんです。
これらは客観的な物ではないんです。
客観的な情報ソースではないんです。
Gaurav Gite、Googleソフトウェア・エンジニア:
しかし、MLフェアさと呼ばれるものがあるんです。
MLフェアさ?
フェアさですよ。つまり、我々はフェアでなくてはいけませんね。
Jen Gennai、Google責任イノベーションリーダー:
我々はまたアルゴリズムを訓練してます。2016年が再度起こるなら、
結果は違ったものになるかもと。
連中は高度にバイアスされたマシンです。
[00:01:00]------------------------------
決意ですよ、ドナルド・トランプのような者が二度と力の地位にならぬように。
2020年は確実に私の前の組織のトップにありますね。
Trust and Safetyです。
トップ項目です。彼らは、2016年以来やってきました、
2020年に準備万端なようにです。
これはゴリアテです。私はダビデです。
言おうとしてるんです、王様は裸だと。
我々は議会の前に何度も呼ばれました。
我々に圧力をかけるわけですが、でも我々は変わりません。
小さなアリが、(?)を破壊するんです。
しかし、これは私より大きなことなんです。
米国大衆に語られるべきことなんです。
エリザベス・ウォレンが言ってました、Googleを分割すべきだと。
彼女は好きですが、非常に見当違いですね。
良くはなりませんよ。悪くなります。
我々の持つようなリソースを持たない小さな会社というのは、
次のトランプ政権で訴訟を起こされるでしょう(?)。
つまり、小さな会社ではできないんです。
プロジェクトベリタス
[00:02:00]------------------------------
勇敢なインサイダーがGoogleについて内部告発
「フェアさを機械が学習」
幹部が暴露、2020にトランプを回避するGoogleの計画
今週始めのことです、
Facebookの内部告発者が暴露しました、の保守派の声を減速させることです。
彼女がインスパイアしたのがPinterestの人です。
プロジェクトベリタスに来たのです、彼の話を携えて。
先週ですが、
我々はPinterestのインサイダー、エリック・コクランのレポートをリリースしました。
その検閲の詳細です。
生命尊重(中絶反対)及びクリスチャンのコンテンツのです。
テック企業は、
我々全員と戦うことはできません。
本日はGoogleのインサイダーをご紹介します。
勇敢な男が前に出て、話を持ってきたのです、
恐るべきものです。
誰かが消毒剤になるかもしれないと思います(?)。
人々は質問を始める必要があるんです。
Googleインサイダーが来る二週間前に、
我々は秘密裏に録音しました、
ジェン・ジェナイ、Google重役をです。
ジェナイが話したのは、
人々が検索するものについて確実にすることです、
マシン学習アルゴリズムを通じ、
[00:03:00]------------------------------
Googleの政治的アジェンダをです。
それが常にあると。
2016年には我々全員がひどい目に合わされたんです。
再度ですが、我々だけではなく、これは、
人々がそれにひどい目に合わされ、
ニュースメディアもですね。まるで、
全員がひどい目に合わされ、我々は急速にそうなったんです。まるで、
何が起こったの?と。二度と起こらないためには?と。
トランプが2016年に勝った直後、
会社は完全に向きを変え、
彼らの考えることが重要なのだと。
自己表現や全員の声が重要と考えるのではなく、
今や連中は、「おい、多くのヘイトがあるぞ」とか、
「そのヘイトのせいで、女性蔑視や人種差別があるぞ」と。
「それが理由でトランプが選ばれたのだ」と。
「だから、我々がそれを直す必要がある」と。
「ユーザの取締りを開始しよう」と。
「なぜなら、その結果が好きじゃないからだ」
「二度と起こってほしくない」と。
それについて少々話しましょう。
これについて話してください、
その会合であなたが見たものをです。
トランプ選出の後のですね。
[00:04:00]------------------------------
誰が何を正確に言ったのでしょう?
変わった物というと、
(?)が話しはじめたんです、
心の中の人種差別を導く必要があると。
それとまた、
YouTubeにおいても同じようなトップの。。。
CEOのスーザンですね。
連中が話していたのは、
それと戦うと。
アンフェアさを排除するのだと。
ですから、ここで、ゆっくりとですが、マシン学習フェアさの概念が始まったんです。
ジェン・ジェナイは、Googleグローバル問題部署におけるイノベーション責任の長です。
彼女がマシン学習についてのポリシーと倫理を決めています。
あるいはAIのです。
我々にわかったこととしては、
ますますGoogle検索におけるAIの役割が増していることです。
我々がAI原理を立ち上げた理由というのは、
人々が一線を引かないからです。
こうは言わないんですよ、何がフェアで何が公正かなどと。
ですから、我々は、大企業ですから、我々が言おうと。
フェアさとバイアスの私の定義としては、
[00:05:00]------------------------------
具体的に話せば、歴史的に無視されてきたコミュニティですね。
それが私の気遣うことです。
力にある人達のコミュニティや、伝統的に力にあった人たちがいますが、
彼らのために、私はフェアさを解決しようとしてるのではありません。
我々のフェアさの定義としては、
我々がそう考えるところのものの一つですね、
明らかに、誰もが同意するようなものです。が、そうでなかったものです。
そして、今の大統領に投票した人たちは、我々のフェアさの定義に同意しないんです。
フェアとは、犬笛ですよ。
(特定の人だけが理解できる)
その本来の意味とは違うんです。
これを理解するには、二重思考を適用する必要があるんです、
本当は何を言っているのかを。
フェアさの本当の意味としては、
連中が操作しなければならないことです、検索結果をです。
そうすることにより、連中の欲する政治的アジェンダが得られるわけです。
ですから、
連中はアルゴリズムを再度バイアスさせ、
そのアジェンダをばらまくわけです。
彼女の言うことすべてを解釈(?)すれば、
[00:06:00]------------------------------
彼女は、
アルゴリズムをフェアにするんですが、
そのコミュニティでの厳選した代表者に任せるわけです。
つまりこれは、
彼女は製品を売るのですが、
異論の無いようなものですね、
彼女はそういう製品を売ろうとしてるんです、客観的ではない。