Michelle Obama is a man – Youtube och dess algoritmer

I mycket läsvärda Guardianartikeln ‘Fiction is outperforming reality’: how YouTube’s algorithm distorts truth undersöks hur Youtubes automatiska kösystem påverkar vår uppfattning om världen. Kösystemet är listan på videos som dyker upp ute till höger och som automatiskt spelas upp när din valda video är slut. Algoritmerna som styr vilka videos som rekommenderas där är ju delvis baserade på ens beteende på Youtube innan, vad har du tittat på, men också på generella rekommendationer. Före detta Youtubeanställde Guillaume Chaslot var orolig för att dessa algoritmer underlättade för människor att fastna i filterbubblor där man bara fick sin egen övertygelse bekräftad. Han skrev ett program som utifrån en grundvideo samlade ihop alla automatrekommenderade videos för att se om mönster kring vilka videos som rekommenderades oftare än andra uppstod. Han upptäckte att vissa videos uppkom oftare och att dessa relativt ofta följde ett mönster. ”YouTube is something that looks like reality, but it is distorted to make you spend more time online,” he tells me when we meet in Berkeley, California. “The recommendation algorithm is not optimising for what is truthful, or balanced, or healthy for democracy.” Det verkar som om Youtube har rekommenderat överlag mer negativa videos om Hillary Clinton än om Donald Trump vid sökningar, något som kan ha påverkat det amerikanska presidentvalet enligt The Guardians artikel.

Youtubes algoritmer visade sig vara partiska (biased) åt olika håll vilket är viktigt att tänka på, reflektera och problematisera med tanke på hur mycket av våra och barn och ungas live som försiggår framför den lilla röda tv-apparatlogotypen.

When his program found a seed video by searching the query “who is Michelle Obama?” and then followed the chain of “up next” suggestions, for example, most of the recommended videos said she “is a man”. More than 80% of the YouTube-recommended videos about the pope detected by his program described the Catholic leader as “evil”, “satanic”, or “the anti-Christ”. There were literally millions of videos uploaded to YouTube to satiate the algorithm’s appetite for content claiming the earth is flat. “On YouTube, fiction is outperforming reality,” Chaslot says. (The Guardian)

På Chaslots verktyg Algotransparency kan man själv se vilka rekommendationer som förekommer oftare än andra kring diverse sökord. Nedan ser vi mest rekommenderade på sökfrågan ”vaccines facts” vilket ger en skrämmande bild över algoritmers makt. Källkoden till programmet är öppen så är man intresserad kan man enkelt upprepa testen med egna sökord.

Läs gärna mer om problematiken på Wall Street Journal:

How YouTube Drives People to the Internet’s Darkest Corners

Eller ännu mer på Medium:

Untrue-Tube: Monetizing Misery and Disinformation

Följ oss på Facebook om du inte vill vill missa något! AV-Media Trelleborg

 

 

Kommentera

E-postadressen publiceras inte. Obligatoriska fält är märkta *

  • Om

    Hej och välkomna till Pedagog Trelleborg! En blogg för och av pedagoger Trelleborgs kommun (samt alla andra) om allt det där som kretsar kring och om pedagogik och teknik. Sidan drivs av AV-Media och skolbibliotekariepoolen. Kontakt: av-media@trelleborg.se