Ανοίγοντας το facebook ξεπροβάλλει κάθε μέρα ένα
διαφορετικό ερώτημα με την επισήμανση «απάντησε σε κάποιες ερωτήσεις και
βοήθησε τους φίλους σου να σε μάθουν».
Οι ερωτήσεις μοιάζουν αθώες, άκακες, όπως «για μένα ελευθερία είναι…» ή «ένα τρελό πράγμα που έκανα κάποτε ήταν…» κι άλλες παρόμοιας ελαφρότητας.
Άλλοι για πλάκα, άλλοι στα σοβαρά, απαντούν σε αυτές
και πολλές άλλες δοκιμασίες τύπου κουΐζ.
Είναι οι ίδιοι πιθανότατα που πρωτοστατούν εδώ και μερικές μέρες στο κίνημα #deletefacebook, έχοντας πέσει από τα σύννεφα, όταν έμαθαν ότι η Cambridge Analytica, εταιρεία ανάλυσης δεδομένων που συνδέεται με τον πρώην σύμβουλο του Trump Steve Bannon, βρήκε στο facebook την καλύτερη και μεγαλύτερη βάση για να εξορύξει -ή αν θέλετε να συγκομίσει- δεδομένα.
Και πιθανόν ματαιοπονούμε προσπαθώντας να αλλάξουμε τις μηχανές ή να επενδύσουμε στις αγαθές προθέσεις όσων βρίσκονται πίσω από αυτές.
* Η Ιωάννα Κωσταρέλλα είναι Επίκουρη Καθηγήτρια στο
Τμήμα Δημοσιογραφίας και ΜΜΕ του Α.Π.Θ.
Οι ερωτήσεις μοιάζουν αθώες, άκακες, όπως «για μένα ελευθερία είναι…» ή «ένα τρελό πράγμα που έκανα κάποτε ήταν…» κι άλλες παρόμοιας ελαφρότητας.
Είναι οι ίδιοι πιθανότατα που πρωτοστατούν εδώ και μερικές μέρες στο κίνημα #deletefacebook, έχοντας πέσει από τα σύννεφα, όταν έμαθαν ότι η Cambridge Analytica, εταιρεία ανάλυσης δεδομένων που συνδέεται με τον πρώην σύμβουλο του Trump Steve Bannon, βρήκε στο facebook την καλύτερη και μεγαλύτερη βάση για να εξορύξει -ή αν θέλετε να συγκομίσει- δεδομένα.
Όπου εξόρυξη δεδομένων (data mining) είναι η ανακάλυψη
νέων προτύπων και μοντέλων που επιτρέπουν τη συσχέτιση και την ομαδοποίηση σε
κατηγορίες, ενώ συγκομιδή δεδομένων (data harvesting) είναι μια έκφραση, την οποία
χρησιμοποίησε ο ίδιος ο πληροφοριοδότης δημοσίου συμφέροντος και πρώην
συνεργάτης της Cambridge Analytica Christopher Wylie, για να αναφερθεί στην
υφαρπαγή (;), εκχώρηση (;), παραχώρηση (;)
προσωπικών δεδομένων 50 εκατομμυρίων χρηστών του Facebook το 2015.
Τα δεδομένα συλλέχθηκαν μέσα από μια εφαρμογή με το
όνομα thisisyourdigitallife, που δημιουργήθηκε από τον ακαδημαϊκό Aleksandr
Kogan και εν συνέχεια αξιοποιήθηκαν μέσα από τεχνικές, όπως αυτές του
microtargeting και του cluster analysis, βοηθώντας το επικοινωνιακό επιτελείο
του Trump να γκρουπάρει και να στοχεύσει καλύτερα και πιο προσωποποιημένα στους
ψηφοφόρους.
Η τεχνική του microtargeting, όπως την προσδιορίζει ο
δημοσιογράφος Steven Levy, αφορά στον
εντοπισμό μικρών, αλλά κρίσιμων ομάδων ψηφοφόρων που θα μπορούσαν να
διεκδικηθούν και να κερδηθούν από μια συγκεκριμένη πλευρά κι έχει τις ρίζες της
δεκαετίες πριν την επανεμφάνιση της σύγχρονης εκδοχής της (Levy, 2013).
Συγκεκριμένα, στις εκλογές του 1968 ο Nixon, ως υποψήφιος πρόεδρος των Η.Π.Α.
με το Ρεπουμπλικανικό κόμμα, με την «Νότια Στρατηγική» του, κατάφερε να
κερδίσει τους λευκούς ψηφοφόρους, που αποτελούσαν την πλειοψηφία του σώματος
των εκλεκτόρων στο νότο, λόγω των περιορισμών που κρατούσαν μακριά από την
κάλπη τους Αφροαμερικανούς ψηφοφόρους.
Πως; Χρησιμοποιώντας ένα θέμα σφήνα
(wedge issue), εν προκειμένω αυτό των πολιτικών δικαιωμάτων, για να βρει
απήχηση στα ρατσιστικά ένστικτα της λευκής ψήφου και να την απομακρύνει από το
Δημοκρατικό Κόμμα.
Από την άλλη η
τεχνική cluster analysis αφορά στην ομαδοποίηση σε ομοιογενή γκρουπ, με στόχο
τη διευκόλυνση της ταξινόμησης και της κατάταξης σε ομάδες.
Γνωρίζοντας πια τι φοβίζει, τι αρέσει, τι προκαλεί
αποστροφή, οι ειδικοί της επικοινωνίας είχαν εύκολη δουλειά να κάνουν,
επενδύοντας στο συναίσθημα.
Την επικράτηση του συναισθήματος έναντι της λογικής
επιβεβαίωσε εξάλλου λίγες μέρες πριν και η μεγάλη έρευνα του media lab του MIT
για τις ψευδείς ειδήσεις, καταλήγοντας ότι τα bots (προγράμματα που εκτελούν
αυτοματοποιημένες εργασίες μέσω διαδικτύου) δεν ευθύνονται τόσο για τη σταθερή
επικράτηση των ψευδών ειδήσεων, όσο οι προσωπικές μας επιλογές που ευνοούν το
συναίσθημα (Vosoughi et. al., 2018).
Πρώτες στις ψευδείς ειδήσεις ήταν αυτές
που είχαν πολιτικό περιεχόμενο και επεδείκνυαν μεγαλύτερη μοναδικότητα, ενώ
προκαλούσαν ταυτόχρονα τη μεγαλύτερη έκπληξη.
Στον ψηφιακό κόσμο, γράφει η τεχνο-κοινωνιολόγος
Zeynep Tufekci σε άρθρο της στους New York Times, οι αλγόριθμοι μηχανικής
μάθησης μαθαίνουν να καταλαβαίνουν τα χαρακτηριστικά των ανθρώπων που αγόρασαν
ένα εισιτήριο ή μια ηλεκτρική συσκευή και να τους ταξινομούν (Tufekci, 2018).
Οι αλγόριθμοι δηλαδή κατανοούν σιγά-σιγά την ανθρώπινη συμπεριφορά και κάνουν
τις ανάλογες προτάσεις.
Μάλιστα, φέρνοντας ως παράδειγμα το Youtube, η Tufekci
επισημαίνει ότι όταν κάποιος ξεκινήσει να βλέπει ένα βίντεο για ένα θέμα, αυτά
που του προτείνονται στη συνέχεια για το ίδιο θέμα αφορούν όλο και πιο ακραίες
εκδοχές του, επιδιώκοντας να τον δελεάσουν.
Είτε, λοιπόν, λόγω της κακόβουλης χρήσης των
προσωπικών μας δεδομένων, είτε εξαιτίας των αλγορίθμων της τεχνητής νοημοσύνης,
το σίγουρο είναι ότι είμαστε εκτεθειμένοι. Και πιθανόν ματαιοπονούμε προσπαθώντας να αλλάξουμε τις μηχανές ή να επενδύσουμε στις αγαθές προθέσεις όσων βρίσκονται πίσω από αυτές.
Εκεί που πρέπει να επικεντρωθούν οι προσπάθειές
μας είναι στο να εκπαιδευτεί το
κοινό να αλλάξει τον τρόπο που
σκέφτεται, να εντρυφήσει στην παιδεία στα μέσα (media literacy) και να
αντιληφθεί ότι οι δικές του επιλογές είναι αυτές που θα του προσφέρουν καλύτερη
ενημέρωση και κυρίως προστασία από την κακόβουλη χρήση των προσωπικών του
δεδομένων.
Εκτός αν δεν την επιδιώκει και επιμένει να αναζητά διαρκώς αλλού
ευθύνες.
Ιωάννα Κωσταρέλλα
Πηγές
Levy, Steven. “In
Every Voter, a ‘Microtarget'” The Washington Post, April 23, 2008.
Soroush Vosoughi,
Deb Roy & Sinan Aral (2018). The spread of true and false news online.
Science, Vol. 359, Issue 6380, pp. 1146-1151.
Tufekci, Zeynep.
Youtube the Great Radicalizer, NYT, March 2018.
The Guardian. www.theguardian.com
€ « » $
●▲▼◄►
ΠΗΓΗ://jaj.gr/media-literacy/tis-ptaiei-oi-algorithmoi-i-o-tropos-poy-skeftomaste/
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου