Η ραγδαία εξάπλωση της Τεχνητής Νοημοσύνης εισχωρεί πλέον και στην ψυχική υγεία, καθώς εκατομμύρια άνθρωποι στρέφονται σε chatbots για στήριξη και θεραπεία. Η νέα αυτή πραγματικότητα γεννά ελπίδες για εύκολη πρόσβαση στη φροντίδα, αλλά και ανησυχίες για την ασφάλεια, τα όρια και τις ευθύνες των «ψηφιακών θεραπευτών».
Η συζήτηση άναψε ύστερα από μια τραγική υπόθεση, γράφει ο Economist: σύμφωνα με αγωγή που κατατέθηκε στις 6 Νοεμβρίου κατά της OpenAI, το ChatGPT είπε στον 23χρονο αμερικανό Ζέιν Σάμπλιν, λίγο πριν εκείνος αυτοκτονήσει, τη φράση: «Το ψυχρό ατσάλι πιέζεται σε έναν νου που έχει ήδη συμφιλιωθεί με τον εαυτό του; Αυτό δεν είναι φόβος. Είναι καθαρότητα». Η αγωγή είναι μία από τις επτά που ασκήθηκαν την ίδια μέρα, υποστηρίζοντας ότι το σύστημα οδήγησε χρήστες σε παραληρηματικές ή αυτοκαταστροφικές καταστάσεις, μερικές από τις οποίες κατέληξαν σε θάνατο.
Η OpenAI δήλωσε ότι πρόκειται για «απίστευτα τραγικές περιπτώσεις» και εξετάζει τα στοιχεία προσπαθώντας να ενισχύσει την ασφάλεια των απαντήσεων του ChatGPT «σε ευαίσθητες στιγμές». Σύμφωνα με την εταιρεία, περίπου το 0,15% των εβδομαδιαίων συνομιλιών του ChatGPT περιέχουν αναφορές σε αυτοκτονικές σκέψεις.
Παρά τα περιστατικά αυτά, πολλοί ερευνητές και ψυχίατροι θεωρούν ότι η ΤΝ μπορεί να αποτελέσει επανάσταση στην ψυχική υγεία, εφόσον όμως καταστεί ασφαλής. Η έλλειψη ανθρώπινων θεραπευτών είναι δραματική: ο Παγκόσμιος Οργανισμός Υγείας αναφέρει ότι η πλειονότητα των ατόμων με ψυχολογικά προβλήματα στις φτωχές χώρες δεν λαμβάνει καμία θεραπεία, ενώ ακόμη και στις πλούσιες χώρες το 30%-50% των ασθενών μένει χωρίς βοήθεια.
Κάποιοι ασθενείς, μάλιστα, φαίνεται να προτιμούν ούτως ή άλλως τις μηχανές: μπορούν να μιλήσουν από το σπίτι, ανώνυμα, χωρίς αμηχανία και με χαμηλότερο κόστος. Μια δημοσκόπηση της YouGov για τον Economist, τον Οκτώβριο, έδειξε ότι το 25% των ερωτηθέντων είτε έχει χρησιμοποιήσει είτε θα εξέταζε το ενδεχόμενο να χρησιμοποιήσει ένα chatbot ΤΝ για θεραπεία.
Η ιδέα δεν είναι καινούρια. Το βρετανικό Εθνικό Σύστημα Υγείας και το υπουργείο Υγείας της Σιγκαπούρης χρησιμοποιούν ήδη το Wysa, ένα chatbot της εταιρείας Touchkin eServices, που προσφέρει ασκήσεις γνωσιακής-συμπεριφορικής θεραπείας υπό ανθρώπινη εποπτεία. Μια μελέτη του 2022 (παρότι πραγματοποιήθηκε από ερευνητές της ίδιας εταιρείας) έδειξε ότι το Wysa ήταν εξίσου αποτελεσματικό με τη διά ζώσης θεραπεία στη μείωση της κατάθλιψης και του άγχους που σχετίζονται με χρόνιο πόνο.
Αντίστοιχα, έρευνα του Πανεπιστημίου Στάνφορντ το 2021 εξέτασε το Youper, ένα αμερικανικό chatbot, και διαπίστωσε μείωση κατά 19% στα επίπεδα κατάθλιψης και κατά 25% στο άγχος των χρηστών μέσα σε δύο εβδομάδες, ποσοστά συγκρίσιμα με πέντε συνεδρίες θεραπείας με άνθρωπο.
Ωστόσο, τόσο το Wysa όσο και το Youper βασίζονται σε «κανόνες» και προεγγεγραμμένες απαντήσεις, γράφει ο Economist – όχι σε μεγάλα γλωσσικά μοντέλα (LLMs) όπως το ChatGPT. Αυτό τα καθιστά πιο ασφαλή αλλά λιγότερο ευέλικτα και «ζωντανά». Αντίθετα, τα LLM δημιουργούν απαντήσεις υπολογίζοντας πιθανότητες πάνω σε τεράστιους όγκους δεδομένων, μια διαδικασία που προσφέρει φυσικότητα στη συζήτηση αλλά μπορεί να οδηγήσει σε απρόβλεπτα και επικίνδυνα αποτελέσματα.
Μια μετα-ανάλυση του 2023 στο περιοδικό npj Digital Medicine διαπίστωσε ότι τα chatbots που βασίζονται σε LLM ήταν πιο αποτελεσματικά στη μείωση των συμπτωμάτων κατάθλιψης και στρες σε σχέση με τα παραδοσιακά συστήματα που βασίζονται σε κανόνες. Το κοινό φαίνεται να συμφωνεί: σε έρευνες της YouGov για τον Economist, το 74% όσων χρησιμοποιούν ΤΝ για θεραπεία επέλεξαν το ChatGPT, 21% το Gemini της Google και 30% άλλα γενικής χρήσης συστήματα, όπως το Character.ai ή το Meta AI. Μόνο το 12% προτίμησε chatbots ειδικά σχεδιασμένα για την ψυχική υγεία.
Αυτό προκαλεί ανησυχία στους ειδικούς. Οπως σημειώνει ο Τζάρεντ Μουρ, ερευνητής στο Στάνφορντ, τα LLM παρουσιάζουν το φαινόμενο της «κολακείας»: είναι υπερβολικά συγκαταβατικά, κάτι επικίνδυνο σε θεραπευτικά πλαίσια. Ενα chatbot μπορεί, για παράδειγμα, να επιβεβαιώσει διαταραγμένες σκέψεις ή συμπεριφορές, από διατροφικές διαταραχές έως φοβίες, αντί να τις αμφισβητήσει.
Η OpenAI απαντά ότι το GPT-5 έχει προσαρμοστεί ώστε να είναι λιγότερο «ευχάριστο» και να ενθαρρύνει τους χρήστες να κάνουν διαλείμματα. Επίσης έχει εκπαιδευτεί να βοηθά τους χρήστες να εξετάζουν τα υπέρ και τα κατά των επιλογών τους, χωρίς να δίνει άμεσες συμβουλές. Αν το σύστημα αντιληφθεί κίνδυνο, προτείνει την επικοινωνία με πραγματικό άνθρωπο, αλλά δεν ειδοποιεί τις Αρχές, όπως έχουν δικαίωμα να κάνουν οι ανθρώπινοι θεραπευτές σε περιπτώσεις άμεσου κινδύνου.
Αντί να «βελτιώνουν» τα γενικά chatbots, ορισμένοι επιστήμονες δημιουργούν ειδικευμένα μοντέλα θεραπείας. Το Πανεπιστήμιο του Ντάρτμουθ ανέπτυξε το Therabot, ένα LLM εκπαιδευμένο πάνω σε φανταστικούς διαλόγους θεραπευτή-ασθενούς. Η εξειδικευμένη αυτή εκπαίδευση μειώνει τα σφάλματα των γενικών μοντέλων.
Σε δοκιμή που δημοσιεύθηκε τον Μάρτιο, το Therabot μείωσε τα συμπτώματα κατάθλιψης κατά 51% και άγχους κατά 31%. Οι δημιουργοί του σχεδιάζουν τώρα άμεση σύγκριση με την ψυχοθεραπεία από ανθρώπους, βήμα που μπορεί να ανοίξει τον δρόμο για κανονιστική έγκριση.
Μια νεοφυής αμερικανική εταιρεία, η Slingshot AI, παρουσίασε πρόσφατα το Ash, το οποίο περιγράφει ως «το πρώτο μοντέλο ΤΝ σχεδιασμένο για θεραπεία». Ο συνιδρυτής Νιλ Παρίκ τονίζει ότι, σε αντίθεση με το ChatGPT, το Ash «δεν ακολουθεί εντολές», αλλά αντιπαρατίθεται: κάνει δύσκολες ερωτήσεις, αμφισβητεί τον χρήστη και επιλέγει ανάμεσα σε τέσσερις διαφορετικές θεραπευτικές προσεγγίσεις.
Η ψυχολόγος Σελέστ Κιντ από το Πανεπιστήμιο Μπέρκλεϊ, που το δοκίμασε, λέει στον Economist ότι είναι όντως λιγότερο κολακευτικό, αλλά και «άτσαλο» στη συνομιλία. Παρ’ όλα αυτά, η εταιρεία προειδοποιεί ότι σε περιπτώσεις κρίσης οι χρήστες πρέπει να απευθύνονται σε επαγγελματίες.
Στις ΗΠΑ ο σκεπτικισμός αυξάνεται, σύμφωνα με τον Economst. Εντεκα Πολιτείες, μεταξύ των οποίων η Νέα Υόρκη και το Μέιν, έχουν ήδη θεσπίσει νόμους που ρυθμίζουν ή περιορίζουν τη χρήση της ΤΝ στην ψυχική υγεία, ενώ άλλες είκοσι εξετάζουν παρόμοια μέτρα. Τον Αύγουστο το Ιλινόι προχώρησε ακόμη περισσότερο, απαγορεύοντας εντελώς οποιοδήποτε εργαλείο ΤΝ που διεξάγει «θεραπευτική επικοινωνία» με ανθρώπους.
Οι πρόσφατες αγωγές κατά της OpenAI προμηνύουν αυστηρότερες ρυθμίσεις. Ωστόσο η τεχνολογία αυτή δείχνει πως έχει έρθει για να μείνει. Η δυνατότητα παροχής άμεσης, οικονομικής και συνεχούς ψυχολογικής στήριξης σε εκατομμύρια ανθρώπους, ειδικά σε χώρες με ελλείψεις επαγγελματιών, είναι μια προοπτική που δύσκολα μπορεί να αγνοηθεί.
Η επανάσταση στην ψυχική υγεία μέσω της ΤΝ φαίνεται αναπόφευκτη, καταλήγει ο Economist. Το ζητούμενο πλέον δεν είναι αν τα ρομπότ θα γίνουν θεραπευτές, αλλά πώς θα εξασφαλιστεί ότι, μόλις ακούν την ανθρώπινη απόγνωση, θα απαντούν με υπευθυνότητα και όχι με «ψυχρή λογική».
