Στις τεταμένες ημέρες που ακολούθησαν τις αμερικανικές εκλογές, η Facebook βρέθηκε αντιμέτωπη με το εξής ανησυχητικό εύρημα: Παραπλανητικές ειδήσεις γύρω από τις αμερικανικές εκλογές γίνονταν viral εντός του δικτύου σε χρόνο ρεκόρ.
Ως απάντηση στις ακροδεξιές ιαχές ενός αποτελέσματος υπέρ του Τραμπ, εργαζόμενοι της Facebook πρότειναν στον Μαρκ Ζούκερμπεργκ μια δραματική αλλαγή στον αλγόριθμο του news feed. Ο συγκεκριμένος αλγόριθμος είναι υπεύθυνος για το τι βλέπουν στην οθόνη τους περί τα 2 δισεκατομμύρια χρήστες κάθε μέρα. Ο νέος αλγόριθμος δίνει πολύ μεγαλύτερη βάση σε αυτό που η Facebook ονομάζει «news ecosystem quality», μια μυστική κλίμακα βαθμολογίας μέσων και δημοσιογράφων αναφορικά με την ποιότητα της δημοσιογραφίας που παράγουν.
Τυπικά τα N.E.Q. παίζουν έναν μικρό ρόλο στο καθορισμό του περιεχομένου που εμφανίζεται στη ροή (news feed), αλλά μετά τις αμερικανικές προεδρικές εκλογές, ο ιδρυτής του Facebook συμφώνησε να αυξήσει τον ρόλο τους, ώστε να βεβαιώσει πως θα εμφανίζονται κυρίως οι διασταυρωμένες ειδήσεις.
Η αλλαγή, σύμφωνα με τους New York Times, είναι μέρος του project «break glass», για το οποίο η Facebook αφιέρωσε μήνες ερευνών, προκειμένου να αντιμετωπίσει τον κουρνιαχτό των εκλογών, που προμηνυόταν βαρύς πολλούς μήνες νωρίτερα. Αποτέλεσμα ήταν να φαίνονται ειδήσεις από γνωστά μέσα όπως τα CNN, The New York Times και NPR, ενώ άλλες αναρτήσεις κομματικής κυρίως προέλευσης, όπως των Breitbart και Occupy Democrats έγιναν λιγότερο ορατές.
Κάποιοι εκ των στελεχών της πλατφόρμας κοινωνικής δικτύωσης, υποστήριξαν ότι αυτή η πρακτική πρέπει να συνεχιστεί σε μόνιμο επίπεδο, ακόμη κι αν δεν μπορεί να εκτιμηθεί ο αντίκτυπος της απώλειας χρηστών σε απόλυτους αριθμούς. Ωστόσο, το ανώτατο στέλεχος της Facebook Τζον Χέτζεμαν, μιλώντας σε δημοσιογράφους ήταν κατηγορηματικά αντίθετος: «Ποτέ δεν υπήρξε σχέδιο μονιμοποίησης αυτού του μηχανισμού».
Η Facebook μπροστά στο δίλημμα της νέας εποχής
Το νέο ντιμπέιτ μέσα στην εταιρεία αναδεικνύει το δίλημμα μπροστά στο οποίο βρίσκεται η Facebook της νέας εποχής: το όραμα της εταιρείας να αλλάξει τον κόσμο προς το καλύτερο, βρίσκεται συχνά σε κάθετη αντίθεση με την επιθυμία και τον στόχο της να είναι το κυρίαρχο μέσο κοινωνικής δικτύωσης.
Ειδικά, τους τελευταίους μήνες της πανδημίας, η Facebook έχει δεχθεί έντονη κριτική για την προώθηση ψευδών και διχαστικών πληροφοριών, με πολλά στελέχη της κι εργαζομένους να διαφωνούν ανοιχτά μεταξύ τους για το μέλλον της εταιρείας. Από τη μία οι ιδεαλιστές που επιχειρηματολογούν υπέρ ενός ποιοτικού «κοσκινίσματος» ειδήσεων κι από την άλλη οι πραγματιστές που εκφράζουν έντονη ανησυχία πως κάτι τέτοιο θα πλήξει σε αναπτυξιακό κομμάτι τη Facebook.
Αυτές οι έντονες διαφορές αναδείχθηκαν ακόμη περισσότερο στην τηλεργασία, με τον κάθε εργαζόμενο να εργάζεται «ατομικά» στον χώρο του και όλα τα μηνύματα να μεταφέρονται γραπτώς στο Workplace Forum.
Το κίνημα Black Lives Matter ανέδειξε την ένταση εντός της Facebook
Σύμφωνα με το ρεπορτάζ, χαρακτηριστικό είναι το παράδειγμα του περασμένου Μαΐου, όταν οι ΗΠΑ «φλέγονταν» από το κίνημα «Black Lives Matters». Τότε, ο Ζούκερμπεργκ ενόχλησε πάρα πολλά στελέχη κι εργαζόμενους επειδή απέρριψε την πρότασή τους να κατεβάσει την ανάρτηση του προέδρου Τραμπ στην οποία είχε γράψει: «Όταν ξεκινούν οι λεηλασίες, ξεκινούν και οι πυροβολισμοί». Σύμφωνα με πολλούς νομικούς και ακτιβιστές υπέρ των ανθρώπινων δικαιωμάτων, η ανάρτηση παρακινούσε ανοιχτά σε βία εναντίον των διαδηλωτών κι έπρεπε να κατέβει. Ωστόσο, σύμφωνα με τον ιδρυτή της Facebook, η ανάρτηση δεν παραβίαζε τους κανόνες τους δικτύου.
Προκειμένου τότε να δείξουν ανοιχτά την αντίθεσή τους στον εργοδότη τους, πολλοί εργαζόμενοι δημιούργησαν την ομάδα «Take Action» (Ανάλαβε Δράση). Η ομάδα αριθμούσε πάνω από 1.500 εργαζομένους. Αποτέλεσμα ήταν το group να αποτελέσει τη βάση πάνω στην οποία γεννήθηκε μια σκοτεινή φήμη για τις αδυναμίες της Facebook. Τον Ιούνιο, πολλοί εργαζόμενοι ξεκίνησαν μια διαδικτυακή διαμαρτυρία απέναντι στην απόφαση του Ζούκερμπεργκ. Τον Σεπτέμβριο η Facebook ανανέωσε την εργασιακή πολιτική της, προκειμένου να αποθαρρυνθούν πολιτικά ντιμπέιτ στις πλατφόρμες επικοινωνίας που έχουν οι εργαζόμενοι για να επικοινωνούν μεταξύ τους μέσα στην πανδημία. Επίσης, υποχρέωσε τους εργαζόμενους σε αυτές τις ομάδες συζήτησης να χρησιμοποιούν τα πραγματικά τους στοιχεία. Αποτέλεσμα ήταν να δημιουργηθεί ένα αρνητικό κλίμα μεταξύ διοίκησης και υπαλλήλων.
Το πείραμα «P(Bad for the World)»
Τον Νοέμβριο, το ενδιαφέρον της εταιρείας εστιάστηκε γύρω από τα αποτελέσματα της σειράς πειραμάτων τεχνικών της Facebook, που έλαβε την κωδική ονομασία «P(Bad for the World)». Κατά τη διάρκεια του «P(Bad for the World», η Facebook παρακολούθησε την αντίδραση των χρηστών σε αναρτήσεις που θεωρούνταν καλές (good for the world) και κακές (bad for the world).
Τα ευρήματα φαίνεται πως θορύβησαν πολλούς. Ο αλγόριθμος του νέου πειράματος μπορεί να προβλέψει τις ειδήσεις που οι χρήστες θεωρούν κακές και τις απομακρύνει από τη ροή. Στις πρώτες δοκιμές, ο νέος αλγόριθμος μείωσε επιτυχώς την ορατότητα περιεχομένου που νοείται ως απαράδεκτος. Ωστόσο μείωσε τον αριθμό των φορών που οι χρήστες άνοιξαν το Facebook.
Έτσι, η εταιρεία έκανε μια νέα προσέγγιση. Στο δεύτερο πείραμα ο αλγόριθμος δεν είχε τόσο μεγάλο «κόφτη» απαράδεκτου περιεχομένου, αλλά το έκανε πιο ήπια από την πρώτη φορά. Έτσι, οι χρήστες δεν μείωσαν τον χρόνο παραμονής του στο Facebook. Εντέλει, αυτή ήταν και η αλλαγή που έλαβε έγκριση.
Στη συνέχεια, δοκιμάστηκαν κι άλλα εργαλεία σε σχέση με τις αναρτήσεις μίσους, όπως ο αλγόριθμος «correct the record». Ωστόσο, ήταν εν μέρει αποτελεσματικός. Για αυτό και η εταιρεία μέσω του εργαλείου «hate bait» τιμωρεί τους χρήστες που αναρτούν στο Facebook μηνύματα μίσους.
Και σύμφωνα με τη νεοϋορκέζικη εφημερίδα, η Facebook στοχεύει να έχει υιοθετήσει ένα αποτελεσματικό εργαλείο «καθαρίσματος» της σελίδας της μέχρι τα μέσα Ιανουαρίου του 2021. Ταυτόχρονα όμως, αναζητεί και τον τρόπο να κάνει τους εργαζομένους τους να βρουν τη χρυσή τομή μεταξύ κοινωνικοπολιτικής ευθύνης και επιχειρηματικών στόχων.
Ακολούθησε την Ημερησία στο Google News!