AIによるモデレーションの失敗 from industrytoday.com



Bader Lawのホワイトペーパーによると、TikTokで有害と判断された動画の60%が48時間後も公開され続けていることが示されています。
身体的損傷スタント、ブラックアウトチャレンジ、薬物関連チャレンジは削除後も頻繁に再アップロードされている一方で、削除された動画の11%は削除手続き後に再投稿される前に年齢制限が課せられています。
さらに、この報告書は、ベナドリルなどの有害なチャレンジが削除前に広く拡散される原因となっている執行の遅延を指摘しています。

コメント

タイトルとURLをコピーしました