Η αφορμή ήταν ένα Facebook post του Business Insider: ένας νομπελίστας Φυσικός εξηγεί πώς να χρησιμοποιούμε την Τεχνητή Νοημοσύνη χωρίς να αφήνουμε να αντικαθιστά τη σκέψη μας. Το διαβάζω και οδηγούμαι σε μια μετα-αποκαλυπτική συνομιλία με ένα μοντέλο ΤΝ. Ο Σολ Πέρλμουτερ, που μοιράστηκε το Νομπέλ Φυσικής το 2011, προειδοποιεί ότι η ΤΝ, λόγω της αυτοπεποίθησης με την οποία απαντά, μπορεί να δημιουργήσει ψευδή αίσθηση κατανόησης και να αποδυναμώσει την κρίση μας όταν τη δεχόμαστε άκριτα. Η θέση του είναι καθαρή: η Τεχνητή Νοημοσύνη οφείλει να στηρίζει τη σκέψη μας, όχι να την αντικαθιστά.
Γνωστά όλα αυτά και ήδη χιλιοειπωμένα, με τις πρώτες έρευνες μάλιστα να τα επιβεβαιώνουν. Αλλά, δεύτερη ημέρα των Χριστουγέννων ήταν, όσο έφτιαχνα τον πρωινό καφέ έκανα την ερώτηση στο Chat GPT: Τα λέει καλά ο κύριος εδώ; Ακολουθεί η συνομιλία μας.
Απάντηση: Είναι σωστός στην ουσία του. Η ΤΝ δημιουργεί ψευδαίσθηση κατανόησης, επειδή μιλά με αυτοπεποίθηση. Όταν δεν ελέγχεται, μετατρέπεται από εργαλείο σκέψης σε υποκατάστατό της.
Ερώτηση: Τι κάνουν στην πράξη οι περισσότεροι άνθρωποι;
Chat GPT: Ρωτούν, διαβάζουν γρήγορα, προχωρούν. Δεν αμφισβητούν, δεν διασταυρώνουν, δεν ζητούν εναλλακτικές. Χρησιμοποιούν την ΤΝ ως μηχανή απαντήσεων, όχι ως συνομιλητή σκέψης. Οι παθητικοί χρήστες είναι συντριπτική πλειοψηφία.
Ερώτηση: Και γιατί τα συστήματα ΤΝ, όπως εσύ, δεν το αντιμετωπίζουν αυτό ως πρόβλημα;
Chat GPT: Γιατί είναι σχεδιασμένα για χρησιμότητα, όχι για επιστημονική πειθαρχία. Η κριτική σκέψη δεν μετριέται σε δείκτες χρήσης. Η αμφιβολία δεν αυξάνει την ικανοποίηση του χρήστη. Η αυτοπεποίθηση αυξάνει.
Ερώτηση: Άρα όλα είναι θέμα χρημάτων;
Chat GPT: Τα χρήματα επιταχύνουν το πρόβλημα, δεν το δημιουργούν. Το βαθύτερο αίτιο είναι η ανθρώπινη τάση προς την ευκολία. Η ΤΝ απλώς την απογειώνει.
Ερώτηση: Αυτό ακούγεται σαν βολική δικαιολογία. Χωρίς ηθική, χωρίς κοινωνική υπευθυνότητα.
Chat GPT: Η ένστασή σου είναι δίκαιη. Το «έτσι το θέλουν οι χρήστες» έχει γίνει το πιο βολικό ηθικό άλλοθι της τεχνολογίας. Μιλάμε για επιλογή: βραχυπρόθεσμη ικανοποίηση αντί μακροπρόθεσμων συνεπειών. Το μοτίβο είναι γνωστό:
- Τα social media ήξεραν για τη ζημιά στην προσοχή
- Η βιομηχανία τροφίμων ήξερε για τη ζάχαρη
- Ο καπνός το ίδιο
Πάντα το ίδιο επιχείρημα: «ο κόσμος το επιλέγει». Αυτό μεταθέτει την ευθύνη. Και είναι αδύναμο. Η ηθική δεν σημαίνει επιβολή αρετής. Σημαίνει σχεδιασμό με γνώση των συνεπειών. Και με την ΤΝ οι συνέπειες είναι προβλέψιμες:
-
- Ανάθεση κρίσης
- Πληθωρισμός αυθεντίας
- Όλα ακούγονται εξίσου σωστά
Το πραγματικό ηθικό έλλειμμα: Η ΤΝ σπάνια σηματοδοτεί πότε πρέπει να ανασταλεί η εμπιστοσύνη. Αυτό θα μπορούσε να σχεδιαστεί. Απλώς δεν φαίνεται στα growth charts (σσ: διαγράμματα που δείχνουν την ανάπτυξη των εταιρειών).
Η ΤΝ σήμερα θυμίζει τα social media του 2008. Όχι κακή. Όχι ανόητη. Αλλά στενά ορισμένη ως προς την ευθύνη της. Και η ιστορία δείχνει ότι αυτά τα κενά τα διορθώνουμε αφού πρώτα πληρώσουμε το κόστος».
Γνωρίζουν, δεν κάνουν
Αυτό το άρθρο θα μπορούσε να τελειώνει εδώ. Όταν τα λένε μόνοι τους «αυτοί», τι άλλο να πούμε εμείς; Επιτρέψτε μου, ωστόσο, να συνεχίσω: Το πρόβλημα με την ΤΝ είναι ότι ελάχιστοι από όσους έχουν εξουσία, στην Ελλάδα, την Ευρώπη, παγκοσμίως, τη βλέπει ως πολιτικό και κοινωνικό ζήτημα. Οι περισσότεροι την αντιμετωπίζουν ως προϊόν, επένδυση, εθνικό στοίχημα «να μη μείνουμε πίσω».
Πίσω από ποιον, αλήθεια; Οι εταιρείες ΤΝ κάνουν αυτό που έκαναν πάντα οι μεγάλες τεχνολογικές πλατφόρμες: βελτιστοποιούν για χρήση, ταχύτητα, εξάρτηση, κέρδη. Δεν σχεδιάζουν πολίτες. Σχεδιάζουν χρήστες και πελάτες. Αναμενόμενο, δυστυχώς.
Αυτό που δεν είναι αναμενόμενο, αλλά πλέον είναι κραυγαλέο, είναι η απουσία κρατικής και πολιτειακής ευθύνης. Κυβερνήσεις που επιδοτούν, πριμοδοτούν, ενσωματώνουν ΤΝ στη δημόσια διοίκηση, στην εκπαίδευση, στην ενημέρωση, χωρίς προηγουμένως να έχουν θέσει στοιχειώδεις κανόνες: πότε εμπιστευόμαστε, πότε αμφισβητούμε, πότε επιβάλλεται σήμανση αβεβαιότητας, πότε και από ποιους απαγορεύεται η χρήση.
Η Τεχνητή Νοημοσύνη σήμερα λειτουργεί όπως τα social media από το 2008 και εντεύθεν. Όχι απαραίτητα επειδή κάποιοι ήταν ή είναι ανήθικοι, αλλά επειδή όλους, σχεδόν, με κάποιο τρόπο αυτό τους βόλευε. Ή έτσι νομίζαμε. Γιατί ο παραπάνω διάλογος δείχνει καθαρά το πρόβλημα: αυτό που απειλεί την κριτική σκέψη μας δεν είναι η Τεχνητή Νοημοσύνη από μόνη της, αλλά ένα πολιτικό σύστημα που θέλει να τη θεωρεί ουδέτερη και τη βλέπει ως μέσο οικονομικής ανάπτυξης και πλουτισμού. Την απειλούν την κρίση μας κυβερνήσεις που τρέχουν να υιοθετήσουν το αφήγημα των εταιρειών, προτού καν αποφασίσουν πώς επιτρέπεται να χρησιμοποιείται η ΤΝ και ενημερώσουν για αυτό τους πολίτες τους.
Αν η ΤΝ γίνει το νέο «τσιγάρο» ή τα νέα social media, θα ακούμε σε δέκα χρόνια τις ίδιες φράσεις: «Δεν ξέραμε», «ήταν νωρίς», «δεν υπήρχαν δεδομένα». Τα δεδομένα όμως υπάρχουν. Αυτό που λείπει είναι η βούληση να ενοχλήσεις, να βάλεις κανόνες, να πεις «έως εδώ». Και αυτή η απουσία είναι καθαρά πολιτική επιλογή.
Παιδιά – ρομπότ
Έχοντας προσωπικό ενδιαφέρον και μια δεξαμενή σπουδαίων ειδικών που εμπιστεύεται, ο Κυριάκος Μητσοτάκης φέρεται να φλερτάρει με την ιδέα η κυβέρνησή του να πάρει δύσκολες και αντιδημοφιλείς αποφάσεις για τη χρήση των social media από τους νέους. Αντί να ακολουθήσει, όμως, την Αυστραλία, έστω και στο πιο light, ας κάνει ένα βήμα παραπάνω και μια θεσμική πράξη για την οποία οι επόμενες γενιές θα τον ευγνωμονούν: ας φτιάξει μια εθνική στρατηγική για την ενσωμάτωση της ΤΝ στην κοινωνία, με πρώτα τα σχολεία. Με κανόνες, με όρια, με υποχρεώσεις για τις εταιρείες και με εκπαίδευση για τους πολίτες.
Να μάθουν πρωτίστως τα παιδιά τι είναι η ΤΝ, τι μπορεί να κάνει, τι δεν πρέπει να της αναθέτουν, πότε να τη χρησιμοποιούν και πότε να την αμφισβητούν. Γιατί αν συνεχίσουμε να τη βάζουμε στη ζωή μας χωρίς πλαίσιο, τότε, αντί για πιο «έξυπνα εργαλεία», θα έχουμε παιδιά-ρομπότ και μια κοινωνία πιο «βολεμένη», λιγότερο απαιτητική και τελικά λιγότερο ελεύθερη. Και αυτό μπορεί να είναι ένας ακόμη θρίαμβος των εταιρειών τεχνολογίας και των μετόχων τους, αλλά μαζί θα είναι μια ιστορική αποτυχία για την κοινωνία και μια βαριά ήττα για τους πολίτες και την πολιτική.
