86 firm zażądało od Facebooka poprawy systemu odwołań blokujących

86 firm zażądało od Facebooka poprawy systemu odwołań blokujących

W ciągu ostatniego roku Facebook został zmuszony do rozszerzenia swojej praktyki moderowania treści w odpowiedzi na żądania obrońców praw człowieka, którzy argumentowali, że firma nie chroni "wrażliwych" użytkowników przed mową nienawiści.

List otwarty do Marka Zuckerberga, podpisany przez 86 organizacji, wymaga od Facebooka jasnego i szybkiego mechanizmu, który umożliwia użytkownikom odwoływanie się od przypadków usuwania treści i dezaktywacji kont. Tekst zawiera także wezwanie do wszystkich sieci społecznościowych. Autorzy domagają się, aby moderatorzy stali się bardziej transparentni i reagowali na apele i prośby o usunięcie treści.

W kwietniu tego roku Facebook zaczął skarżyć się na wiadomości, które zostały usunięte z powodu nienawiści lub podżegania do przemocy. W komunikacie prasowym sieci społecznościowej twierdzi się, że jeden z recenzentów rozpatrzy wszystkie odwołania w ciągu 24 godzin i powiadomi użytkowników o odpowiedzi. Facebook miał 4,500 moderatorów treści w maju 2017 r., A rok później ich liczba podwoiła się.

86 firm zażądało, aby Facebook poprawił system odwoławczy Ilnur Sharafiev

AI sprawi, że podpisy Facebooka staną się "bardziej atrakcyjne"

Istnieje kilka głośnych przykładów usuwania treści na Facebooku i dezaktywacji kont, które później okazały się błędne. Na przykład konto rapera Lil B zostało zawieszone na 30 dni, aby komentować białych ludzi, którzy według Facebooka naruszają politykę tolerancji. Następnie użytkownicy w całym kraju stwierdzili, że ich konta są często omyłkowo odłączone tymczasowo lub na stałe, a ich zawartość jest oznaczana i usuwana z powodu naruszenia standardów wspólnoty.

List otwarty do Marka Zuckerberga wymaga również, aby wszystkie odwołania dotyczące usuwania i dezaktywowania treści były rozpatrywane moderator-człowiek. Jednak firma planuje powierzyć ją robotom.

W maju tego roku Facebook opublikował swój pierwszy raport na temat zgodności ze standardami wspólnotowymi. Według niego, firma otrzymała 3,4 miliona skarg w pierwszym kwartale 2018 roku. Raport stwierdza również, że tylko 14% treści to skargi użytkowników, a 86% publikacji zostało odkrytych przez samych moderatorów

.

Powiązane wiadomości