本日は、フェイスブックへの集団訴訟で合意があったという話。

 

13日のAFPによると、フェイスブックは、コンテンツ監視業務に従事し暴力的な画像などを見たことで精神的なトラウマを受けたとして同社に損害賠償請求集団訴訟を起こした約1万人に計5200万ドル(約56億円)の和解金を支払うことに合意したとのこと。原告側弁護団が12日、明らかにしたとのこと。

 

2018年に提訴された集団訴訟で、不適切コンテンツの監視業務を行うコンテンツモデレーターらは、児童性的虐待や斬首、テロ、動物虐待、レイプ、殺人などの生々しいコンテンツに繰り返しさらされたことで精神的外傷を受けたと主張していたとのこと。

 

 

フェイスブック集団訴訟合意、AIではまだまだか

普通の人が見るべきでない動画、写真の削除をするお仕事。想像以上に大変な仕事だと思います。

 

アウトソーシングしてるアクセンチュアなんかは、モデレーターに対し、不快なものがあるのを理解しており、PTSDになるかもしれない、という類の合意書にサインをしてもらったうえでやってるという話。

 

AIがこういうのは監視してますが、まだAIも完璧じゃないですから、人が監視してるのが現状。

 

 

フェイスブック監視前に流れているとんでもない写真、映像、どうにかならないものか・・・香港デモ、とんでも写真など

見た後に、見なければよかったと思うものも、フェイスブック監視前に流れていることがあります。

 

最近だと、香港でデモがありましたが、けっこう過激なものを見てしまった人も多いと思います。私は過激というか、過激すぎるものを見ました。見たくなかったけど。

 

しかし、これがデモの現実として受け止めるべきなのか?いや、これはさすがにNG的なもの。

 

あと、どこの国か知りませんが、白黒の写真だからすごーく古い写真。なんか人が横たわっていて、何をしているのかというと、これをもしかして食べている???ような写真。いったいどんな状況なのか?そして、これは真実なのか?

 

また、動物実験の映像とか、わけ分からない生物を食べているのとか。

 

後に削除されるようなものだと思いますけど、実際私も目にしてますし、監視前に出回ってしまうものがあるのが現状。もっと人員増やして対応しないと。

 

皆積極的にやろうとするような仕事ではないですから、人員確保も大変。難しい問題。

 

今後、ソーシャルメディアの監視はどのようになっていくか、要注目です。

スポンサーリンク