847
| Shutterstock

Πώς θα μπει φρένο στις διακρίσεις των αλγορίθμων

Protagon Team Protagon Team 28 Μαρτίου 2023, 13:01

Πώς θα μπει φρένο στις διακρίσεις των αλγορίθμων

Protagon Team Protagon Team 28 Μαρτίου 2023, 13:01

Οι αλγόριθμοι υποτίθεται ότι «εργάζονται» για να κάνουν τη ζωή μας καλύτερη, ευκολότερη, και να μας οδηγήσουν στο μέλλον. Κατά πόσο, όμως, ισχύει αυτό, αναρωτιέται η Μπίνα Βενκαταραμάν σε άρθρο της στην Washington Post.

Ολο και περισσότερο οι αλγόριθμοι παίρνουν αποφάσεις για μας. Για σημαντικά και λιγότερο σημαντικά ζητήματα, όπως ποιες διαφημίσεις θα περάσουν από μπροστά μας στα social media ή αν θα γίνουμε αποδεκτοί από μια ασφαλιστική εταιρεία. Πόσο σωστές είναι όμως αυτές οι αποφάσεις και ιδιαίτερα όσον αφορά πιο σοβαρά ζητήματα;

Στις ΗΠΑ υπάρχει εδώ και αρκετό καιρό το αίτημα για κάποιου είδους νομοθετικές ρυθμίσεις και ελέγχους ως προς τον τρόπο που λειτουργούν οι αλγόριθμοι, και ιδιαίτερα για τη δυνατότητά τους να προβλέπουν και να επηρεάζουν αποφάσεις που έχουν πολύ σημαντικό αντίκτυπο στις ζωές των ανθρώπων.    

Οι περισσότεροι από τους καταναλωτές έχουν αναγκαστεί πλέον να αποδεχτούν το γεγονός ότι πληροφορίες που κάποτε ήταν εμπιστευτικές, είναι κτήμα των αλγορίθμων αυτών: από τη γενεαλογία μας μέχρι το πώς περνάμε τα Σαββατοκύριακά μας. Ολες αυτές οι πληροφορίες μπορεί να μας κοστίσουν την ασφαλιστική μας ικανότητα ή τη δυνατότητά μας να πιάσουμε μια συγκεκριμένη δουλειά.

Ορισμένες Πολιτείες των ΗΠΑ προσπαθούν να καλύψουν το κενό της κεντρικής νομοθεσίας με δικές τους νομοθετικές ρυθμίσεις. Πριν από έναν μήνα, στην πολιτεία του Κολοράντο, στην Καλιφόρνια και στην περιφέρεια της Κολούμπια εμφανίστηκαν προσχέδια νόμων που έχουν ως στόχο να υποχρεώσουν τους αλγορίθμους να υπηρετούν πιο αποτελεσματικά το κοινό καλό.

Η υπόσχεση των προγνωστικών αλγορίθμων είναι ότι, απαλλαγμένοι από προκαταλήψεις και ιδιοτροπίες, θα αποφασίζουν καλύτερα από του ανθρώπους. Το πρόβλημα με τους προγνωστικούς αλγορίθμους είναι ότι παίρνουν αποφάσεις σήμερα με δεδομένα του χθες, αποφασίζοντας με αυτόν τον τρόπο για το μέλλον μας. Προϋποθέτουν ότι εμείς ακολουθούμε επακριβώς όσα προηγήθηκαν, και οι επόμενοι θα ακολουθήσουν ακριβώς τον δικό μας δρόμο.

Οι αλγόριθμοι θα έπεφταν πιθανώς μέσα εάν κάποιος είχε μεγαλώσει σε μια ήσυχη γειτονιά, ακολουθούσε πολύ καλή διατροφή σε όλη σου τη ζωή, είχε σπουδάσει σε ένα πολύ καλό πανεπιστήμιο και συμπεριφερόταν ως υπόδειγμα πολίτη: η ταξινόμηση που επιχειρούν είναι πολύ απλοϊκή και άκρως παραπλανητική.

Νομιμοφανείς διακρίσεις

Για τις εταιρείες που θέλουν να ελαχιστοποιήσουν λάθη, να παράσχουν υπηρεσίες ή να προσελκύσουν καταναλωτές με «σωστό» σπίτι, δουλειά ή και ταίρι, τα αυτοματοποιημένα συστήματα είναι πολύτιμα. Η χρήση των αλγορίθμων δημιουργεί την εντύπωση ότι οι αποφάσεις βασίζονται σε μια αμερόληπτη, ουδέτερη λογική. Ωστόσο, αυτό που στην πραγματικότητα συμβαίνει είναι ότι τα αυτοματοποιημένα συστήματα μεγεθύνουν υπάρχουσες προκαταλήψεις.

Μια πρόσφατη έρευνα έδειξε κάτι σοκαριστικό: Ενας αλγόριθμος απέκλειε από πολλά από τα νοσοκομεία της Μασαχουσέτης μαύρους Αμερικανούς με σοβαρές νεφρικές νόσους από τις λίστες για μεταμοσχεύσεις. Ο λόγος δεν ήταν αυτός που φανταζόμαστε. Απλώς, ο αλγόριθμος θεωρούσε ότι οι μαύροι ασθενείς κινδυνεύουν περισσότερο από τους λευκούς με τα ίδια συμπτώματα.

Μια έρευνα της ProPublica αποκάλυψε ότι όσοι είχαν διαπράξει αδικήματα στην κομητεία Μπρόουαρντ της Φλόριντα λάμβαναν ποινές –και άρα φυλακίζονταν– με βάση λανθασμένες προβλέψεις για την πιθανότητα να διαπράξουν ξανά κάποιο αδίκημα. Μια άλλη έρευνα αποκάλυψε ότι οι πιο φτωχοί και λιγότερο μορφωμένοι άνθρωποι χρεώνονται περισσότερο από τις ασφαλιστικές για τα αυτοκίνητά τους.

Οι περισσότερες εταιρείες κρατούν τους αλγορίθμους τους καλά προστατευμένους και έτσι το κοινό δεν ξέρει πώς ακριβώς λαμβάνονται αυτές οι αποφάσεις. Κάποιος άνθρωπος που χρεώνεται υψηλότερα ασφάλιστρα ή δεν εγκρίνεται το δάνειο που ζήτησε, δεν θα μάθει ποτέ γιατί συνέβη αυτό.

Στις ΗΠΑ είναι παράνομη η σκόπιμη διάκριση των ανθρώπων με βάση τη φυλή, το φύλο ή τις ικανότητες. Είναι όμως νόμιμο για τις εταιρείες να κάνουν διακρίσεις με βάση την κοινωνική και οικονομική κατάσταση ενός ατόμου. Και οι αλγόριθμοι μπορούν ακούσια να ξεπεράσουν αυτά τα όρια και να κάνουν διακρίσεις που τελικά βασίζονται στο φύλο και στη φυλή.

Νομοθετικές πρωτοβουλίες

Οι νέοι κανονισμοί που προτείνονται απαιτούν από τις εταιρείες να ελέγχουν τους αλγορίθμους που χρησιμοποιούν για τέτοιου είδους διακρίσεις και να τους προσαρμόζουν ανάλογα. Τον περασμένο Φεβρουάριο, το Κολοράντο υιοθέτησε την πιο φιλόδοξη από αυτές τις μεταρρυθμίσεις. Ο επίτροπος ασφάλισης της Πολιτείας παρουσίασε μια σειρά από κανόνες σύμφωνα με τους οποίους οι ασφαλιστικές εταιρείες πρέπει να ελέγχουν τα αυτοματοποιημένα συστήματά τους για πιθανές διακρίσεις, και επιπλέον, να είναι προσβάσιμα σε όλους.

Η πρόταση ήρθε μετά τον πρωτοποριακό νόμο που πέρασε το 2021 η Πολιτεία και ο οποίος –παρά τις σφοδρές αντιδράσεις από τις ασφαλιστικές εταιρείες– στοχεύει στην προστασία των καταναλωτών από κάθε είδους αδικία και διάκριση από τη χρήση Τεχνητής Νοημοσύνης.

Στην Ουάσινγκτον, τον περασμένο μήνα, πέντε μέλη του Δημοτικού Συμβουλίου έφεραν προς ψήφιση έναν νόμο που απαιτεί από τις εταιρείες που χρησιμοποιούν αλγορίθμους να περνούν από ελέγχους για πιθανές διακρίσεις. Επίσης, απαγορεύει να χρησιμοποιούνται αλγόριθμοι σε θέματα εκπαίδευσης, στέγασης, υγείας και ασφάλισης.

Στην Καλιφόρνια, η υπηρεσία προστασίας προσωπικών δεδομένων της Πολιτείας ξεκίνησε μια πρωτοβουλία προκειμένου να περιοριστούν δραστικά οι διακρίσεις από τη χρήση αλγορίθμων.

Κανείς δεν ξέρει πώς μπορεί να λειτουργήσουν όλα αυτά τα μέτρα στην πράξη, αλλά είναι βήματα προς ένα πιο δίκαιο μέλλον. Εάν δοκιμαστούν σε πολιτειακό επίπεδο, μπορεί να ακολουθήσει η ομοσπονδιακή νομοθεσία στις ΗΠΑ, και στη συνέχεια ο υπόλοιπος κόσμος.

Το ζητούμενο είναι να πάψουν οι αλγόριθμοι να αντανακλούν τις ανθρώπινες προκαταλήψεις. Το ζητούμενο είναι να λειτουργήσουν στο μέλλον με βάση τα υψηλότερα ιδανικά.

Ακολουθήστε το Protagon στο Google News

Διαβάστε ακόμη...

Διαβάστε ακόμη...