Algoritmus YouTube prý podporuje šíření konspiračních teorií

8. 3. 2018 | Kristýna Vozková
Máte pocit, že většina vašich vyhledávání na YouTube končí u konspiračních teorií? Nejste jediní. YouTube má tato videa údajně cíleně podporovat.

Vypadá to, že se YouTube nevyhne skandálům ani v roce 2018. Podle dokumentu od Vice News odvysílaném tento týden na kanále HBO, má totiž platforma cíleně podporovat šíření konspiračních teorií.

Účel doporučených videí na YouTube je jasný – udržet diváky na platformě co nejdéle. Najít pro ně takový obsah, který jim přijde natolik zajímavý, že je donutí sledovat třeba 20 videí za sebou v kuse. Tuto funkci má už roky na starosti umělá inteligence. Speciální algoritmus určuje na základě celé řady parametrů ta videa, která co nejvíce odpovídají obsahu, který hledáte. Ale je tomu skutečně tak?

Podle Guillauma Chaslota, jednoho z bývalých zaměstnanců YouTube, platforma ve skutečnosti podporuje diváka ve sledování většího množství videí bez ohledu na důvěryhodnost a relevantnost jejich zdrojů. Zobrazuje tak divákovi spíše takový obsah, ze kterého mu budou hrůzou vstávat vlasy na hlavě, ale který ho donutí kliknout na další video.

Schválně si zkuste na YouTube vyhledat informace o vakcinaci. Zaručeně na vás vyskočí řada videí „anti–vakcinačního” charakteru, ve kterých zjistíte například, že „Aničče nic nebylo, dokud nešla na běžné očkování proti neštovicím”. Vystrašení uživatelé se pak prokliky dalších návrhů dostávají do spirály katastrofických scénářů a stráví na platformě klidně i několik hodin. A to je přesně to, o co algoritmus usiluje. Ukazatelem úspěchu je pro něj čas, který uživatel stráví na YouTube, ne to, zda našel relevantní odpovědi na své otázky. 

Chaslot také poukazuje na jakýsi anti-edukační vliv těchto videí.

„Tento algoritmus do diváka pumpuje jeden a ten samý úhel pohledu stále dokola. Když tak lidé zhlédnou 20 videí o tom, že je Země placatá, mohou snadno nabýt dojmu, že by to tak skutečně mohlo být.”

Na jednu stranu je silně nepravděpodobné, že by sledování videí běžnému uživateli vymylo mozek natolik, aby během několika minut strávených na YouTube zanevřel na vše, co znal, a začal běhat po ulicích s transparenty „Země je placka, jasný jak facka!”  Na druhou však celá situace nutí k zamyšlení, zda YouTube usiluje více o naše blaho nebo o vyšší zisky.

Chaslot před rokem založil webovou stránku Algotranparency.org, která se snaží napodobit způsob, jakým YouTube doporučuje videa. Její software předpokládá, že jste nový návštěvník, který na stránce nikdy dříve nebyl. Pokud do vyhledávání zadáte například Je Země placatá”, budou vám doporučena spíše konspirační videa o tom, že placatá skutečně je, než relevantní informace o tom, že tomu tak není. Pokud budete hledat informace o NASA nebo mimozemšťanech, hned v prvních návrzích se zobrazí videa se zaručenými důkazy, že tu nejsme sami a že mimozemšťané už dávno žijí mezi námi.

V oficiálním prohlášení, které společnost YouTube pro Vice News vydala, uvedla, že neustále pracuje na vývoji metrik pro doporučování videí. V současné době dle svých slov využívá celou řadu nových metrik, aby zajistila divákovi relevantní přísun informací. 

Zdroje: youtube.com, algotransparency.com

Štítky dokumentu: YouTube

To nejlepší z moderního marketingu každý pátek do vašeho inboxu.

Ochrana proti spamovacím robotům. Odpovězte prosím na následující otázku: Jaký je letos rok?
Podobné články: