AIが黒人男性のビデオに「霊長目」のラベルを貼った後、Facebookは謝罪します

黒人男性を特集した英国のタブロイド紙のビデオを最近見たFacebookユーザーは、ソーシャルネットワークから「霊長類に関するビデオを見続ける」かどうかを尋ねる自動プロンプトを見て、人工知能を利用した機能を調査して無効にしました。それはメッセージを押しました。
Facebookは金曜日に、「容認できないエラー」と呼ばれるものについて謝罪し、「これが二度と起こらないようにする」ための推奨機能を検討していると述べた。
2020年6月27日付けのビデオは、デイリーメールによるもので、白人の民間人や警察官と交代した黒人男性のクリップを特集していました。 サルや霊長類とは何の関係もありませんでした。
Facebookの元コンテンツデザインマネージャーであるDarciGrovesは、友人が最近彼女にプロンプ​​トのスクリーンショットを送ったと言いました。 彼女はそれを現在および元のFacebook従業員向けの製品フィードバックフォーラムに投稿しました。 これに対し、同社のビデオサービスであるFacebook Watchのプロダクトマネージャーは、これを「容認できない」と呼び、同社は「根本原因を調査している」と述べた。
グローブス氏は、プロンプトは「恐ろしくてひどい」と述べた。
FacebookのスポークスマンであるDaniLeverは、声明の中で次のように述べています。 これらの不快な推奨事項を見た可能性のある人には、お詫び申し上げます。」
グーグル、アマゾン、その他のテクノロジー企業は、特に人種の問題に関して、AIシステム内の偏見について何年にもわたって精査されてきました。 研究によると、顔認識技術は有色人種に偏っており、特定するのがより困難であり、コンピューターエラーのために黒人が差別されたり逮捕されたりする事件につながります。
2015年の一例では、Googleフォトは、黒人の写真を誤って「ゴリラ」とラベル付けしました。これについて、Googleは「本当に申し訳ありません」と述べ、問題をすぐに修正するよう努めます。 2年以上後、Wiredは、Googleの解決策は、「ゴリラ」という単語を検索から検閲すると同時に、「チンパンジー」、「チンパンジー」、「サル」をブロックすることであることに気づきました。
Facebookには、顔とオブジェクトの認識アルゴリズムをトレーニングするための、ユーザーがアップロードした画像の世界最大のリポジトリの1つがあります。 過去の閲覧や閲覧の習慣に基づいてユーザーに合わせてコンテンツを調整する同社は、関連するカテゴリの投稿を引き続き表示するかどうかをユーザーに尋ねることがあります。 「霊長類」のようなメッセージが広まったかどうかは不明でした。
Facebookとその写真共有アプリであるInstagramは、人種に関連する他の問題に苦しんでいます。 たとえば、7月のサッカーの欧州選手権の後、イングランド代表サッカーチームの3人の黒人メンバーが、チャンピオンシップゲームでペナルティーキックを逃したためにソーシャルネットワークで人種的に虐待されました。
人種問題もFacebookの内部争いを引き起こしました。 2016年、CEOのMark Zuckerbergは、カリフォルニア州メンロパークの本社にある共同スペースで、「Black Lives Matter」というフレーズを取り消して、「AllLivesMatter」に置き換えるのをやめるよう従業員に依頼しました。 ミネアポリスでのジョージ・フロイドの殺害についてのドナルド・トランプ大統領からのポストの会社の取り扱いに抗議するために、何百人もの従業員も昨年仮想ストライキを上演しました。
同社は後に公民権担当副社長を雇用し、公民権監査を発表した。 Facebookは、7月の年次多様性レポートで、米国を拠点とする従業員の4.4%が黒人であり、前年の3.9%から増加したと述べています。
4年後の夏にFacebookを去ったGrovesはインタビューで、会社での一連の失敗は人種問題への対処がそのリーダーにとって優先事項ではないことを示唆していると述べた。
「Facebookはこれらの間違いを犯し続けて、 『ごめんなさい』と言い続けることはできません」と彼女は言いました。

Back to top button