Bojuje Facebook s kontroverzním obsahem? Moderátory při mazání svazují pravidla

23. květen 2017

Server TechCrunch rozvíjí debatu o moderaci facebookových diskusí o kontroverzních tématech, jako je násilí, nenávistné výroky nebo sebepoškozování. Kauzu otevřel jako první britský deník Guardian, který se dostal k více než stovce interních manuálů firmy, k jejím sdíleným dokumentům a diagramům.

Dokumenty podle serveru Tech Crunch dokládají rozporuplný přístup Facebooku ke kontroverznímu obsahu.

Mazat jen někdy

Je z nich patrné, že Facebook mírní omezování negativního obsahu v zájmu své politiky svobody projevu. Takový přístup ale podle autora článku znamená problémy pro moderátory obsahu. Počet zaměstnanců Facebooku, kteří hlídají a hodnotí témata označená jako kontroverzní, je malý.

Jako příklad pravidel Tech Crunch uvádí mimo jiné to, že Facebook neukládá svým moderátorům blokaci některých záběrů šikany dětí, pokud nemají sexuální podtext. Mazat nebo označovat tyto posty jim radí jen v případech, kdy by měly sadistické nebo oslavné prvky.

Facebook také nemaže záběry na krutost zvířat, negativní označení dostanou, jen pokud jsou mimořádně deprimující. Facebook rovněž nezakazuje streamovaná videa s pokusy o sebepoškozování se zdůvodněním, že nechce cenzorovat nebo trestat lidi v potížích.

Podle pravidel Facebooku je možné některá videa s násilným obsahem a negativním označením sdílet, aby veřejnost o těchto otázkách měla povědomí. Tech Crunch poukazuje také na pravidla Facebooku pro posty s pornografií zveřejněnou ze msty. Jednou ze tří podmínek jejich odstranění je doložit nesouhlas toho, kdo je na videu, z nezávislého zdroje, například ze zpráv médií.

Každý, kdo má víc než 100 tisíc fanoušků, je považován za osobnost veřejného života, a proto má i menší ochranu soukromí. Server Tech Crunch také poukazuje na to, že Facebook zmírnil svou politiku ohledně nahoty po kritice odstranění ikonické fotky nahého plačícího dítěte z vietnamské války.

Záběr, který koloval po Facebooku jako agrese "přijatého" muslima, ve skutečnosti pochází z Ruska a zachycuje opilce.

Moderátorů je málo

Autor článku poukazuje na to, že k úniku interních pravidel Facebooku došlo v době rostoucí kritiky za to, jak moderuje obsah. Jako jeden z příkladů server uvádí, že německá vláda v dubnu podpořila pokutu ve výši 50 milionů eur pro případy, kdy sociální média okamžitě neodstraní nenávistné projevy.

Facebook najal tři tisíce dalších moderátorů na kontrolu služby Facebook Live, kde se nepodařilo vypnout kanály vysílající vraždy nebo sebevraždy. Celkově tak posty hlídá 7500 lidí. To je ale jen kapka v moři.

Facebook má skoro dvě miliardy uživatelů, kteří denně sdílejí miliardy příspěvků. Tech Crunch také poukazuje na vyjádření britské Společnosti pro prevenci násilí na dětech, která pravidla moderace Facebooku označila za alarmující a žádá o nezávislou regulaci jeho politiky s možností udělovat pokuty.

Automatizace nepomůže

Manažerka Facebooku pro globální politiku Monika Bickertová reagovala na zprávy z Guardianu ujištěním, že bezpečnost uživatelů pouvažuje společnost za svůj nejdůležitější úkol. Bickertová řekla, že firma se snaží bezpečnost zajistit, aniž by omezovala svobodu slova.

A připomněla záměr majitele Facebooku Marka Zuckerberga najmout pro příští rok další tři tisíce moderátorů do týmů na celém světě, aby reakce na posty byla rychlejší. Zdůraznila také, že Facebook investuje do technologií na zlepšení kontroly obsahu s důrazem na větší automatizaci, coby pomocný nástroj pro moderátory.

Podle autora článku algoritmy nedokážou dost inteligentně posoudit tak komplexní záležitost, jako je vhodnost či nevhodnost nahoty v postech. Domnívá se, že Facebook bude muset čelit kritice tím, že začne najímat na kontrolu obsahu víc a víc zaměstnanců a dokáže tak na nevhodný obsah rychleji reagovat.

autor: mam
Spustit audio