Αναζήτηση αυτού του ιστολογίου

Τρίτη 26 Οκτωβρίου 2021

Facebook Papers: Aποκαλύψεις-φωτιά για τον κολοσσό των social media

Το Facebook γνώριζε με ακρίβεια τις επιβλαβείς του συνέπειες και δεν έκανε τίποτα για να προστατεύσει τους χρήστες όπως προκύπτει μεταξύ άλλων, τόσο από την κατάθεση της Φράνσις Χάουγκεν στο βρετανικό κοινοβούλιο όσο και μέσω μιας σειράς αναφορών που βασίζονται σε εσωτερικά έγγραφα που διέρρευσε, τα λεγόμενα Facebook Papers.

• • • 

Κατά τη διάρκεια ερωτήσεων και απαντήσεων που διήρκεσαν 2,5 ώρες, η Χάουγκεν είπε επανειλημμένα ότι το Facebook θέτει «την ανάπτυξή του πάνω από την ασφάλεια», ιδιαίτερα στις αναπτυσσόμενες περιοχές του κόσμου όπου η εταιρεία δεν διαθέτει γλωσσική ή πολιτιστική τεχνογνωσία για να ρυθμίζει το περιεχόμενο χωρίς να ενθαρρύνει το διχασμό μεταξύ των χρηστών.


Ακολουθούν οι πιο εκρηκτικές αποκαλύψεις από την κατάθεσή της 25ης Οκτωβρίου και τα εσωτερικά έγγραφα.
 

 

Το Facebook δεν μετριάζει το επιβλαβές περιεχόμενο στις αναπτυσσόμενες χώρες

Τα έγγραφα, που επιβεβαιώθηκαν από πολλά ειδησεογραφικά μέσα, αποκαλύπτουν ότι τα προβλήματα με τη ρητορική μίσους και την παραπληροφόρηση είναι δραματικά χειρότερα στον αναπτυσσόμενο κόσμο, όπου ο έλεγχος περιεχομένου είναι συχνά πιο αδύναμος.

H Φράνσις Χάουγκεν

Στην Ινδία, το Facebook φέρεται να μην είχε αρκετούς πόρους ή τεχνογνωσία στις 22 επίσημα αναγνωρισμένες γλώσσες της χώρας,
με αποτέλεσμα η εταιρεία να αδυνατεί να αντιμετωπίσει την αύξηση των αντιμουσουλμανικών αναρτήσεων και των ψεύτικων λογαριασμών που συνδέονται με το κυβερνών κόμμα της χώρας και τα στελέχη της αντιπολίτευσης.

Σύμφωνα με ένα έγγραφο, το 87% του παγκόσμιου προϋπολογισμού του Facebook για το χρόνο που αφιερώνεται στην ταξινόμηση της παραπληροφόρησης πηγαίνει στις Ηνωμένες Πολιτείες, ενώ το 13% προορίζεται για τον υπόλοιπο κόσμο — παρά το γεγονός ότι οι χρήστες της Βόρειας Αμερικής αποτελούν μόλις το 10% των χρηστών.

Όταν ένα ζευγάρι ερευνητών του Facebook δημιούργησε έναν εικονικό λογαριασμό το 2019 για να ελέγξει πώς οι χρήστες στην Κεράλα της Ινδίας βίωναν τον ιστότοπο κοινωνικής δικτύωσης,εντόπισαν έναν εκπληκτικό αριθμό ρητορικής μίσους, παραπληροφόρησης και εκκλήσεων για βία στην πλατφόρμα.


«Είδα περισσότερες εικόνες νεκρών ανθρώπων τις τελευταίες τρεις εβδομάδες από όσες έχω δει σε ολόκληρη τη ζωή μου», έγραψε ο ερευνητής. Με 340 εκατομμύρια χρήστες, η Ινδία είναι η μεγαλύτερη αγορά για το Facebook παγκοσμίως.

Οι μελέτες αποκαλύπτουν ότι η εταιρεία «ανοίγεται» σε χώρες χωρίς να κατανοεί πλήρως τον πιθανό αντίκτυπό της στις τοπικές κοινωνίες, ιδιαίτερα όσον αφορά τον πολιτισμό και την πολιτική, και στη συνέχεια αποτυγχάνει να παρέχει επαρκείς πόρους για να μετριάσει αυτές τις επιπτώσεις.

Κατά τη διάρκεια της κατάθεσής της τη Δευτέρα, η Χάουγκεν είπε ότι το Facebook επιβραδύνει το επιβλαβές περιεχόμενο μόνο όταν «η κρίση έχει αρχίσει», αντί να κάνει την πλατφόρμα ασφαλή εξ’αρχής. Αναφέρθηκε στη συνεχιζόμενη εθνοτική βία στην Αιθιοπία και τη Μιανμάρ ως «τα αρχικά κεφάλαια σε ένα μυθιστόρημα που θα είναι φρικτό να διαβαστεί».

 

Η τεχνητή νοημοσύνη του Facebook δεν εντοπίζει το επικίνδυνο περιεχόμενο σε μη αγγλόφωνες χώρες

Ο αλγόριθμος του Facebook απαγόρευσε κατά λάθος ένα hashtag που αναφέρεται στο τέμενος Αλ Άκσα στην Παλιά Πόλη της Ιερουσαλήμ επειδή νόμιζε ότι αντιπροσώπευε την μαχητική ομάδα Ταξιαρχίες των Μαρτύρων του Αλ Ακσα, ένα ένοπλο παρακλάδι του κόμματος Φατάχ , σύμφωνα με έγγραφα.

Η εταιρεία αργότερα ζήτησε συγγνώμη, αλλά η κατά λάθος αφαίρεση περιεχομένου χρησιμεύει ως φωτεινό παράδειγμα για το πώς οι αλγόριθμοι του γίγαντα των social media μπορούν να καταπνίξουν την πολιτική ομιλία λόγω γλωσσικών φραγμών και έλλειψης πόρων εκτός της Βόρειας Αμερικής.

«Το Facebook λέει πράγματα όπως «υποστηρίζουμε 50 γλώσσες», ενώ στην πραγματικότητα, οι περισσότερες από αυτές τις γλώσσες έχουν ένα μικρό κλάσμα των συστημάτων ασφαλείας που έχουν τα αγγλικά», είπε η Χάουγκεν στους Βρετανούς βουλευτές.

Η εταιρεία βασίζεται εδώ και πολύ καιρό σε συστήματα τεχνητής νοημοσύνης, σε συνδυασμό με τους ανθρώπινους ελέγχους για να αφαιρεί επικίνδυνο περιεχόμενο από τις πλατφόρμες του. Αλλά οι γλώσσες που ομιλούνται εκτός της Βόρειας Αμερικής και της Ευρώπης έχουν κάνει την αυτοματοποιημένη εποπτεία περιεχομένου του Facebook πολύ πιο δύσκολη.

Ένα έγγραφο έδειξε ότι το 2020, η εταιρεία δεν διέθετε αλγόριθμους ελέγχου για να εντοπίσει τυχόν παραπληροφόρηση στη Βιρμανική γλώσσα, τη γλώσσα της Μιανμάρ, ή τη ρητορική μίσους στις αιθιοπικές γλώσσες Oromo ή Amharic.

 

Το Facebook χαρακτήρισε την προεκλογική παραπληροφόρηση ως «επιβλαβές, μη παραβατικό» περιεχόμενο

Εσωτερικά έγγραφα που επιβεβαιώθηκαν από πολλά ειδησεογραφικά πρακτορεία δείχνουν ότι οι υπάλληλοι του Facebook σήκωσαν επανειλημμένα «κόκκινες σημαίες» για παραπληροφόρηση και εμπρηστικό περιεχόμενο στην πλατφόρμα κατά τις προεδρικές εκλογές του 2020, αλλά οι ηγέτες της εταιρείας έκαναν λίγα για να αντιμετωπίσουν το θέμα.


Οι αναρτήσεις που υποστηρίζουν την εκλογική νοθεία χαρακτηρίστηκαν από την εταιρεία ως «επιβλαβές» αλλά «μη παραβατικό» περιεχόμενο - μια προβληματική κατηγορία που περιλαμβάνει επίσης θεωρίες συνωμοσίας και διστακτικότητα εμβολίων.

Οι ψευδείς αφηγήσεις για την εκλογική νοθεία εμπίπτουν σε αυτήν την ομάδα περιεχομένου, η οποία σύμφωνα με τις πολιτικές του Facebook δεν παραβιάζει κανέναν κανόνα. Είναι μια «γκρίζα περιοχή» που επιτρέπει στους χρήστες να διαδίδουν ισχυρισμούς για κλεμμένες εκλογές, χωρίς να παραβιάζουν κανέναν όρο.

Αν και το Facebook απαγόρευσε την ομάδα Stop the Steal στις 5 Νοεμβρίου για τη διασπορά αμφιβολίας περί της νομιμότητας των εκλογών και υποκίνηση σε βία, η ομάδα είχε ήδη συγκεντρώσει περισσότερα από 360.000 μέλη — και νέες ομάδες γεμάτες με παραπληροφόρηση άρχισαν να εμφανίζονται καθημερινά. Οι πιστοί του Τραμπ και οι δεξιοί συνωμοσιολόγοι πλημμύρισαν το κοινωνικό δίκτυο.

Πολλοί υπάλληλοι εξέφρασαν τις ανησυχίες τους σε εσωτερικούς πίνακες μηνυμάτων καθώς παρακολουθούσαν τη βίαιη επίθεση στο Καπιτώλιο της 6ης Ιανουαρίου στις ΗΠΑ. Ορισμένοι έγραψαν μάλιστα ότι ήθελαν να σταματήσουν να εργάζονται για την εταιρεία επειδή οι ηγέτες δεν έλαβαν υπόψη τις προειδοποιήσεις τους.

 

Το Facebook γνώριζε ότι στην πλατφόρμα του πωλούνταν οικιακές βοηθοί

Τα εσωτερικά έγγραφα δείχνουν ότι το Facebook παραδέχτηκε ότι «συναινεί σε επιβεβαιωμένη καταχρηστική δραστηριότητα» επειδή απέτυχε να λάβει μέτρα μετά τις καταγγελίες των Φιλιππινέζων υπηρετριών για κακοποίηση και πώληση στην πλατφόρμα, σύμφωνα με το Associated Press.


«Στην έρευνά μας, οι οικιακές βοηθοί συχνά παραπονέθηκαν στα γραφεία πρόσληψης ότι ήταν κλειδωμένες στα σπίτια τους, πεινούσαν, αναγκάστηκαν να επεκτείνουν τις συμβάσεις τους επ' αόριστον, έμεναν απλήρωτες και πωλήθηκαν επανειλημμένα σε άλλους εργοδότες χωρίς τη συγκατάθεσή τους», αναφέρει ένα έγγραφο του Facebook, σύμφωνα με το AP. «Σε απάντηση, τα πρακτορεία τους έλεγαν να είναι πιο ευχάριστες».

Η Apple απείλησε να αφαιρέσει το Facebook και το Instagram από τις εφαρμογές της λόγω της υπόθεσης αυτής, αλλά άλλαξε πορεία αφότου ο γίγαντας των social media αφαίρεσε 1.000 λογαριασμούς που συνδέονταν με την πώληση οικιακών βοηθών από την πλατφόρμα του.

Αν και το Facebook έκτοτε έχει καταπολεμήσει την πώληση των υπηρετριών, ακτιβιστές ανθρωπίνων δικαιωμάτων καταγγέλλουν ότι οι εικόνες υπηρετριών με την ηλικία και την τιμή τους, εξακολουθούν να βρίσκονται στην πλατφόρμα.

 

Το Facebook συζήτησε εσωτερικά την κατάργηση του Like

Το 2019, το Facebook εξέτασε τον τρόπο με τον οποίο οι άνθρωποι θα αλληλεπιδρούσαν με το περιεχόμενο εάν δεν υπήρχε πλέον η δυνατότητα του Like στο Instagram, υποδηλώνοντας ότι η εταιρεία γνώριζε ότι αυτή η δυνατότητα θα μπορούσε να έχει αρνητικό αντίκτυπο στην ευημερία της

Σύμφωνα με έγγραφα, το κουμπί Like προκαλούσε μερικές φορές στους νεότερους χρήστες της πλατφόρμας «στρες και άγχος» εάν οι αναρτήσεις δεν έπαιρναν πολλά like από φίλους, αλλά όταν ήταν κρυφό, οι χρήστες αλληλεπιδρούσαν λιγότερο με τις αναρτήσεις και διαφημίσεις.

Όταν ρωτήθηκε γιατί το Facebook δεν έχει κάνει το Instagram ασφαλέστερο για τα παιδιά, η Χάουγκεν είπε κατά τη διάρκεια της κατάθεσής της ότι η εταιρεία γνωρίζει ότι «οι νέοι χρήστες είναι το μέλλον της πλατφόρμας και όσο νωρίτερα τους αποκτήσουν τόσο πιο πιθανό είναι να τους προκαλέσουν εθισμό».

 

 

Αναδημοσίευση: newsbomb.gr

Πηγές: time.com

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου