Μάθετε Τη Συμβατότητα Από Το Ζώδιο
Το Facebook ανακοινώνει σαρωτικές αλλαγές στις πολιτικές του κατά της παραπληροφόρησης
Έλεγχος Γεγονότων

(Shutterstock)
Το Facebook ξεκινά το δεύτερο τρίμηνο του οικονομικού έτους εισάγοντας αλλαγές στον τρόπο με τον οποίο καταπολεμά την παραπληροφόρηση στην πλατφόρμα του.
Σε μια ανάρτηση ιστολογίου σχεδόν 2.000 λέξεων που εστάλη στο Poynter την Τετάρτη, το Facebook ανακοίνωσε μια σειρά από νέα πράγματα που κάνει για την καταπολέμηση ψευδών ειδήσεων, εικόνων και βίντεο.
Μεταξύ των αλλαγών:
- Το Facebook μειώνει τώρα την εμβέλεια των ομάδων που διαδίδουν επανειλημμένα παραπληροφόρηση.
- Διερευνά τη χρήση του crowdsourcing ως τρόπο για να προσδιορίσει ποια ειδησεογραφικά μέσα εμπιστεύονται περισσότερο οι χρήστες.
- Και η εταιρεία προσθέτει νέους δείκτες στο Messenger, τις ομάδες και το News Feed σε μια προσπάθεια να ενημερώσει τους χρήστες για το περιεχόμενο που βλέπουν.
'Έχουμε μια σειρά από ενημερώσεις προϊόντων έναντι μιας ή δύο σημαντικών αλλαγών', δήλωσε η εκπρόσωπος του Facebook Mari Melguizo σε ένα email στο Poynter. «Αυτές οι προσπάθειες επικεντρώνονται στη διατήρηση της ασφάλειας των ανθρώπων και στη διατήρηση της ακεραιότητας των πληροφοριών που ρέουν μέσω των εφαρμογών μας».
Εδώ είναι ποια από τις μεγαλύτερες αλλαγές έχει να κάνει συγκεκριμένα με την παραπληροφόρηση, με το πλαίσιο από δημοσιογράφους, ακαδημαϊκούς και τεχνολόγους, καθώς και με πρόσθετη ανάγνωση για κάθε θέμα. Διαβάστε αναλυτικά την ανάρτηση ιστολογίου του Facebook εδώ .
Υποβάθμιση ομάδων που διαδίδουν παραπληροφόρηση
Μεταξύ των μεγαλύτερων αλλαγών που ανακοίνωσε το Facebook την Τετάρτη ήταν ότι θα αρχίσει να υποβιβάζει την εμβέλεια των ομάδων που διαδίδουν επανειλημμένα ψευδείς ειδήσεις, εικόνες και βίντεο.
«Όταν τα άτομα μιας ομάδας μοιράζονται επανειλημμένα περιεχόμενο που έχει αξιολογηθεί ως ψευδές από ανεξάρτητους ελεγκτές, θα μειώσουμε τη συνολική διανομή ειδήσεων αυτής της ομάδας», έγραψαν ο Γκάι Ρόζεν, αντιπρόεδρος ακεραιότητας του Facebook και η Τέσα Λάιον, επικεφαλής του τμήματος ακεραιότητας ειδήσεων. , στην ανάρτηση του ιστολογίου.
Facebookέχει πιάσει flackτους τελευταίους μήνες για τη διάδοση των θεωριών συνωμοσίας κατά των εμβολίων, πολλές από τις οποίες ξεκίνησαν σε ομάδες και στη συνέχεια εξαπλώθηκαν στην υπόλοιπη πλατφόρμα. Σε απάντηση τόσο στην πίεση των μέσων ενημέρωσης όσο καιπιέσεις από Αμερικανούς πολιτικούς, η εταιρία περιέγραψε ένα σχέδιο στις αρχές Μαρτίου για να περιορίσει το περιεχόμενο antivaxxer στην πλατφόρμα της.
Σε αυτό, το Facebook ανακοίνωσε ότι οι ομάδες και οι σελίδες που μοιράζονται παραπληροφόρηση κατά των εμβολίων θα αφαιρούνταν από τον αλγόριθμο συστάσεών του — αλλά δεν θα αφαιρεθούν εντελώς. Η κίνηση ήταν μια σιωπηρή αναγνώριση της δύναμης που έχουν οι ομάδες στη διάδοση ψευδούς περιεχομένου.
Ανέφερε το BuzzFeed News τον Μάρτιο του 2018 το χαρακτηριστικό, που συχνά επαινείται από την ηγεσία του Facebook — και προτεραιότητα στη ροή ειδήσεων — είχε γίνει «ένα παγκόσμιο honeypot spam, fake news, συνωμοσίες, παραπληροφόρηση για την υγεία, παρενόχληση, hacking, trolling, απάτες και άλλες απειλές για τους χρήστες». Γιατί;
«Οι προπαγανδιστές και οι spammers πρέπει να συγκεντρώσουν κοινό και οι ομάδες το σερβίρουν σε μια πιατέλα», είπε στο BuzzFeed η Renee DiResta, ερευνήτρια ασφαλείας. 'Δεν χρειάζεται να εκτελέσετε μια διαφημιστική καμπάνια για να βρείτε άτομα δεκτικά στο μήνυμά σας, εάν μπορείτε απλώς να εγγραφείτε σε σχετικές ομάδες και να αρχίσετε να δημοσιεύετε'.
Και, ενώ η εταιρεία έχει λάβει πολλά μέτρα για να περιορίσει τη διάδοση της παραποίησης στο News Feed, μέχρι την Τετάρτη, έκανε ελάχιστα για την καταπολέμηση της παραπληροφόρησης ειδικά σε ομάδες.
«Δεν υπάρχει καμία συντονισμένη προσπάθεια για να απαλλαγούμε από ψευδείς ειδήσεις, παραπληροφόρηση, οτιδήποτε άλλο», είπε στο Poynter τον Ιανουάριο ένας πρώην υπάλληλος του Facebook που εργαζόταν σε ομάδες. «Είναι πολύ χειρότερο γιατί κάθεται εκεί και είναι κρυμμένο… είναι εξίσου κακό με μια μηχανή παραγωγής παραπληροφόρησης ψευδών ειδήσεων, όπως ήταν ποτέ στο News Feed».
Ο Λέοναρντ Λαμ, εκπρόσωπος των ομάδων του Facebook, είπε στο Poynter ότι οι ίδιες πολιτικές κατά της παραπληροφόρησης που διέπουν προϊόντα όπως το News Feed ισχύουν για ολόκληρη την πλατφόρμα. Αυτό σημαίνει ότι τα πλαστά άρθρα, οι εικόνες και τα βίντεο που καταργήθηκαν από τους συνεργάτες ελέγχου δεδομένων του Facebook θα εμφανίζονται με τον σχετικό έλεγχο δεδομένων να εμφανίζεται κάτω από αυτά — ακόμη και σε ομάδες.
Αυτά τα σήματα θα χρησιμοποιηθούν επίσης για να προσδιοριστεί ποιες ομάδες είναι επαναλαμβανόμενες παραπληροφορητές, ένα από τα πρώτα πράγματα που έκανε το Facebook ειδικά για την καταπολέμηση της παραπληροφόρησης σε ομάδες.
Οι υπερκομματικές ομάδες στο Facebook είναι η επόμενη μεγάλη πρόκληση για τους ελέγχους γεγονότων
Crowdsourcing εμπιστοσύνη στις ειδήσεις
Η ανακοίνωση της Τετάρτης έρχεται καθώς το Facebook επεκτείνει τη συνεργασία του με καταστήματα ελέγχου πληροφοριών σε όλο τον κόσμο - αναμφισβήτητα η πιο ορατή προσπάθεια της εταιρείας για την καταπολέμηση της παραπληροφόρησης στην πλατφόρμα.
Το Facebook ξεκίνησε το πρόγραμμα τον Δεκέμβριο του 2016 με Αμερικανούς ελεγκτές όπως (που ανήκει στην Poynter) PolitiFact, Snopes και Factcheck.org. Στόχος: Εντοπισμός, απομυθοποίηση και μείωση της απήχησης ψευδών ειδήσεων στην πλατφόρμα. Μόλις μια φάρσα επισημανθεί ως ψευδής, η μελλοντική της απήχηση στη ροή ειδήσεων μειώνεται και επισυνάπτεται έλεγχος στοιχείων.(Αποκάλυψη: Υπογραφή τουΚώδικας αρχών του Διεθνούς Δικτύου Ελέγχου Γεγονότων της Poynterείναι απαραίτητη προϋπόθεση για την ένταξη στο έργο.)
Από τότε, αυτόέχει επεκταθείνα επιτρέψει στους ελέγχους γεγονότων να απομυθοποιήσουν ψευδείς εικόνες και βίντεο. Η εταιρική σχέση μεγάλωσε σε 47 έργα που γράφουν σε 23 γλώσσες σε όλο τον κόσμο. Και ενώ έργα όπως το Snopes και το CBS έχουν αποσυρθεί για διαφορετικούς λόγους, καταστήματα όπως το Associated Press επεκτάθηκαν πρόσφατα τη δέσμευσή τους στο πρόγραμμα.
Ένα νέο χαρακτηριστικό κατά της παραπληροφόρησης θα μπορούσε να βοηθήσει στην ενίσχυση αυτού του έργου.
Πώς το Facebook αντιμετωπίζει την παραπληροφόρηση, σε ένα γραφικό
«Απλώς δεν υπάρχουν αρκετοί επαγγελματίες επαληθευτές στοιχείων σε όλο τον κόσμο και, όπως κάθε καλή δημοσιογραφία, ο έλεγχος γεγονότων απαιτεί χρόνο», έγραψαν οι Rosen και Lyons στην ανάρτηση του ιστολογίου. «Μια πολλά υποσχόμενη ιδέα για την ενίσχυση της δουλειάς τους, την οποία διερευνούμε από το 2017, περιλαμβάνει ομάδες χρηστών του Facebook που υποδεικνύουν δημοσιογραφικές πηγές για να επιβεβαιώσουν ή να αντικρούσουν ισχυρισμούς που διατυπώνονται σε δυνητικά ψευδές περιεχόμενο».
Ο Διευθύνων Σύμβουλος Μαρκ Ζάκερμπεργκ έκανε την ιδέα αυτή σε βίντεο στο Facebook τον Φεβρουάριο — λίγο περισσότερο από ένα χρόνο μετά πρώτα το επέπλεε . Η κίνηση δεν ήταν δημοφιλής μεταξύ των δημοσιογράφων, οι οποίοι είπαν ότι οι καθημερινοί χρήστες του Facebook δεν είναι σε θέση να παραμερίσουν τις προκαταλήψεις τους για να βαθμολογήσουν αξιόπιστα μέσα ενημέρωσης.
Αλλά μια νέα μελέτη δημοσιεύθηκε τον Φεβρουάριο του 2018 προτείνει το αντίθετο.
«Αυτό που βρήκαμε είναι ότι, ενώ υπάρχουν πραγματικές διαφωνίες μεταξύ Δημοκρατικών και Ρεπουμπλικανών σχετικά με τα κυρίαρχα μέσα ενημέρωσης, βασικά όλοι — Δημοκρατικοί, Ρεπουμπλικάνοι και επαγγελματίες ελεγκτές γεγονότων — συμφωνούν ότι οι ψεύτικοι και υπερκομματικοί ιστότοποι δεν πρέπει να είναι αξιόπιστοι», είπε ο Ντέιβιντ Ραντ. , αναπληρωτής καθηγητής στο Ινστιτούτο Τεχνολογίας της Μασαχουσέτης, σε δελτίο τύπου .
Σύμφωνα με την ανάρτηση ιστολογίου της Τετάρτης, το Facebook θα συνεχίσει να διερευνά την ιδέα συμβουλευόμενοι ακαδημαϊκούς, εμπειρογνώμονες ελέγχου δεδομένων, δημοσιογράφους και οργανώσεις της κοινωνίας των πολιτών.
«Οποιοδήποτε σύστημα εφαρμόζουμε πρέπει να έχει διασφαλίσεις από το gaming ή τη χειραγώγηση, να αποφεύγει την εισαγωγή προσωπικών προκαταλήψεων και να προστατεύει τις φωνές των μειονοτήτων», έγραψαν οι Rosen και Lyons.
Το crowdsourcing αξιόπιστων πηγών στο Facebook δεν είναι τόσο τραβηγμένο όσο νομίζετε
Περισσότερα συμφραζόμενα στο Facebook
Στο παρελθόν, οι εταιρείες τεχνολογίας έχουν στραφεί σε ιστότοπους όπως η Wikipedia για να παρέχει περισσότερο πλαίσιο σχετικά με τις πηγές που δημοσιεύουν στις πλατφόρμες τους. Την Τετάρτη, το Facebook ανακοίνωσε μια σειρά νέων παρόμοιων δεικτών.
«Επενδύουμε σε λειτουργίες και προϊόντα που δίνουν στους ανθρώπους περισσότερες πληροφορίες για να τους βοηθήσουμε να αποφασίσουν τι να διαβάσουν, να εμπιστευτούν και να μοιραστούν», έγραψαν οι Rosen και Lyons στην ανάρτηση ιστολογίου.
Το Facebook ενημέρωσε το κουμπί περιβάλλοντος, εκτοξεύτηκε τον Απρίλιο του περασμένου έτους, για να συμπεριληφθούν πληροφορίες από The Trust Project σχετικά με τις πολιτικές δεοντολογίας των εκδοτών, την ιδιοκτησία και τη δομή χρηματοδότησης. Η εταιρεία αρχίζει να εμφανίζει περισσότερες πληροφορίες στην καρτέλα ποιότητας σελίδας, η οποία λανσαρίστηκε τον Ιανουάριο για να δείξει στους κατόχους σελίδων ποιες από τις αναρτήσεις τους απομυθοποιήθηκαν από τους συνεργάτες ελέγχου δεδομένων του Facebook. Και, στο Messenger, η εταιρεία προσθέτει ένα επαληθευμένο σήμα για να περιορίσει τις πλαστοπροσωπίες και τις απάτες.
Το Facebook αρχίζει επίσης να επισημαίνει τα προωθημένα μηνύματα στο Messenger - μια τακτική που φαίνεται ότι δανείστηκε από την αδελφή εταιρεία WhatsApp, η οποία κυκλοφόρησε ένα παρόμοιο χαρακτηριστικό τον Ιούλιο σε μια προσπάθεια να περιορίσει τη διάδοση παραπληροφόρησης.
Το WhatsApp λανσάρει μια λειτουργία που επισημαίνει τα προωθημένα μηνύματα
Αν και είναι ένας εύκολος τρόπος για να δίνετε στους χρήστες περισσότερες πληροφορίες σχετικά με τους εκδότες στα μέσα κοινωνικής δικτύωσης και, ως εκ τούτου, να τους αποτρέπετε από το να μοιράζονται παραπληροφόρηση, δείκτες όπως το κουμπί περιβάλλοντος του Facebook έχουν επίσης τη δυνατότητα να παιχτούν.
Το καλοκαίρι, κάποιος βανδάλισε τη σελίδα της Wikipedia για το Ρεπουμπλικανικό Κόμμα της Καλιφόρνια για να πει ότι υποστήριζε τον ναζισμό. Ενώ οι περισσότερες περιπτώσεις βανδαλισμών στη Wikipedia συλλαμβάνονται αρκετά γρήγορα, αυτό το περιστατικό έφτασε στο Google, που βγήκε στην επιφάνεια η ψευδής επεξεργασία ψηλά στα αποτελέσματα αναζήτησης.
Αυτό είναι σπάνιο. Αλλά δεδομένου του όγκου των αλλαγών που γίνονται καθημερινά στη Wikipedia, μπορεί να είναι δύσκολο για τις τεχνολογικές πλατφόρμες να συλλάβουν όλες τις περιπτώσεις βανδαλισμού.
'Φυσικά είναι ένας αρκετά αδύναμος τρόπος για την καταπολέμηση των ψεύτικων ειδήσεων επειδή η Wikipedia δεν είναι μια αξιόπιστη πηγή πληροφοριών — όπως ακόμη και η Wikipedia αναγνωρίζει', ο Magnus Pharao Hansen, μεταδιδακτορικός ερευνητής στο Πανεπιστήμιο της Κοπεγχάγης. είπε στο Poynter τον Ιούνιο . «Η Wikipedia είναι πολύ ευάλωτη σε φάρσες και περιέχει κάθε είδους παραπληροφόρηση, επομένως δεν είναι ένας πολύ σοβαρός τρόπος να καταπολεμηθεί το πρόβλημα των κατασκευασμένων ειδήσεων».
Ο βανδαλισμός της Wikipedia θα μπορούσε να αποτρέψει τη φάρσα στο Google, το YouTube και το Facebook
Ταυτόχρονα, λειτουργίες όπως η καρτέλα ποιότητας σελίδας του Facebook είχαν πιο αποδεικτική επίδραση στη διάδοση παραπληροφόρησης.
Μετά το Factcheck.org απομυθοποιημένος ένα ψεύτικο μιμίδιο για την βουλευτή των ΗΠΑ Alexandria Ocasio-Cortez (D-N.Y.) τον Μάρτιο, η σελίδα που δημοσίευσε τη φωτογραφία το διέγραψε . Και δεν ήταν η πρώτη φορά. άλλες επαναλαμβανόμενες σελίδες παραπληροφόρησης στο Facebook έχουν αφαιρέσει περιεχόμενο απομυθοποιήθηκε από τους εταίρους ελέγχου στοιχείων της εταιρείας και ορισμένους έχουν μετονομάσει τις δραστηριότητές τους εντελώς.
Ενδιαφέρουσα έρευνα από @dpfunke στο @factchecknet . Περισσότερες αποδείξεις ότι ναι, (παρακαλώ προσθέστε κλισέ σχετικά με τα ψέματα που ταξιδεύουν πιο γρήγορα από την αλήθεια) αλλά φαίνεται ότι το σύστημα ελέγχου πληροφοριών από τρίτους @Facebook Έχει αποτέλεσμα και μειώνει την αποτελεσματικότητα ορισμένων επιχειρήσεων «ψευδών ειδήσεων» των ΗΠΑ https://t.co/yc2qGP7eH7
— Peter Cunliffe-Jones (@PCunliffeJones) 13 Μαρτίου 2019
Διόρθωση: Μια προηγούμενη έκδοση αυτού του άρθρου έγραφε λάθος το επώνυμο του Leonard Lam.