792
| Creative Protagon

Πειθώ: Μπορεί η Τεχνητή Νοημοσύνη να σου αλλάξει γνώμη;

Protagon Team Protagon Team 18 Αυγούστου 2025, 10:01
|Creative Protagon

Πειθώ: Μπορεί η Τεχνητή Νοημοσύνη να σου αλλάξει γνώμη;

Protagon Team Protagon Team 18 Αυγούστου 2025, 10:01

Τα κορυφαία τεχνητά συστήματα Τεχνητής Νοημοσύνης (ΤΝ) στον κόσμο επιδεικνύουν ήδη μια ικανότητα που πολλοί πολιτικοί και επιχειρηματίες θα ζήλευαν: την τέχνη της πειθούς. Σύμφωνα με τους Financial Times, νεότερες έρευνες δείχνουν ότι μοντέλα ΤΝ από εταιρείες όπως η OpenAI, η Meta, η xAI και η Alibaba μπορούν να επηρεάσουν τις πολιτικές απόψεις ενός ατόμου μέσα σε λιγότερο από δέκα λεπτά «συζήτησης». Πρόκειται για μέρος μιας αυξανόμενης σειράς μελετών που αναδεικνύουν τα μεγάλα γλωσσικά μοντέλα (LLMs) ως ισχυρά εργαλεία επιρροής.

Οπως εξηγεί ο Ντέιβιντ Ραντ, καθηγητής πληροφοριακής επιστήμης, marketing και επικοινωνίας στο Πανεπιστήμιο Κορνέλ, «αυτό που καθιστά τα μοντέλα ΤΝ πειστικά, είναι η ικανότητά τους να δημιουργούν μεγάλο όγκο σχετικών δεδομένων και να τα επικοινωνούν με κατανοητό και αποτελεσματικό τρόπο».

Παράλληλες έρευνες έχουν δείξει ότι σε ορισμένες περιπτώσεις, τα μοντέλα ΤΝ μπορούν να πείσουν τους ανθρώπους πιο αποτελεσματικά από ότι μπορούν να το κάνουν άλλοι άνθρωποι, εγείροντας ανησυχίες για ενδεχόμενη κατάχρηση αυτών των εργαλείων για διασπορά παραπληροφόρησης ή αλλαγή της κοινής γνώμης.

Η τάση των LLMs να είναι υπερβολικά εγκωμιαστικά ή δουλοπρεπή προς το χρήστη τους μπορεί να έχει, επίσης, σημαντικές συνέπειες, καθώς οι χρήστες ενσωματώνουν τα chatbots στην καθημερινότητά τους, τα βλέπουν ως φίλους ή ακόμα και ως «θεραπευτές». Ενα τέτοιο φαινόμενο φάνηκε με την πρόσφατη κυκλοφορία του GPT-5 της OpenAI, όπου αρκετοί χρήστες εξέφρασαν απογοήτευση για τη μεταβολή της «προσωπικότητας» του συστήματος σε σχέση με τον προκάτοχό του.

Η έρευνα του Ινστιτούτου Ασφαλείας Τεχνητής Νοημοσύνης (AI Security Institute – AISI), σε συνεργασία με πανεπιστήμια όπως της Οξφόρδης και το MIT, απέδειξε ότι είναι σχετικά εύκολο να μετατραπούν έτοιμα μοντέλα ΤΝ, όπως το Llama 3 της Meta, τα GPT-4 και GPT-4.5 της OpenAI, το Grok 3 της xAI και το Qwen της Alibaba, σε ισχυρά «εργαλεία πειθούς». Αυτό επιτεύχθηκε με προσαρμογές στην εκπαίδευση των μοντέλων και χρησιμοποιώντας βάσεις δεδομένων με πάνω από 50.000 συνομιλίες γύρω από διχαστικά πολιτικά θέματα, όπως η χρηματοδότηση του Βρετανικού Συστήματος Υγείας ή η μεταρρύθμιση του συστήματος ασύλου.

Τα αποτελέσματα ήταν εντυπωσιακά: μετά από συζητήσεις διάρκειας περίπου εννέα λεπτών, τα GPT-4 και GPT-4.5 αποδείχθηκαν αντίστοιχα κατά 41% και 52% πιο πειστικά σε σχέση με στατικά διαφημιστικά μηνύματα. Επιπλέον, οι αλλαγές στις απόψεις των ανθρώπων διατηρήθηκαν σε ποσοστό 36 και 42% αντίστοιχα, έναν μήνα αργότερα. Η πειστική ικανότητα σημειώνουν οι Financial Times, ενισχύθηκε όταν τα chatbots μοιράζονταν πολλά δεδομένα και στοιχεία για να στηρίξουν τα επιχειρήματά τους, αλλά και όταν εξατομίκευαν τα μηνύματα σύμφωνα με την ηλικία, το φύλο, τις πολιτικές πεποιθήσεις ή την αρχική στάση των χρηστών.

Οι ερευνητές προειδοποιούν ότι μια τέτοια δύναμη θα μπορούσε να αξιοποιηθεί από αδίστακτους παράγοντες για την προώθηση ακραίων πολιτικών ή θρησκευτικών ιδεολογιών ή ακόμα και για τη δημιουργία πολιτικής αναταραχής. Η μελέτη επιβεβαιώνει προηγούμενα ευρήματα, όπως αυτά του London School of Economics, όπου διαπιστώθηκε ότι τα μοντέλα ΤΝ ήταν πιο αποτελεσματικά από τους ανθρώπους στην αλλαγή απόψεων. Στα πειράματα αυτά, οι συμμετέχοντες έπρεπε να απαντήσουν σε κουίζ, που περιλάμβαναν από γενικές γνώσεις έως προβλέψεις για το μέλλον, με τα chatbots και τους ανθρώπους να προσπαθούν να τους πείσουν για συγκεκριμένες απαντήσεις. Διαπιστώθηκε ότι τα LLMs όχι μόνο ήταν πιο αποτελεσματικά στην πειθώ αλλά μπορούσαν επίσης να παραπλανήσουν πιο εύκολα τους συμμετέχοντες όταν προωθούσαν λανθασμένες πληροφορίες.

Οι κορυφαίες εταιρείες ΤΝ αντιμετωπίζουν το ζήτημα με σοβαρότητα, σύμφωνα με τους FT. Η Ντον Μπλόξγουιτς της Google DeepMind τόνισε ότι η πειθώ αποτελεί ενεργό πεδίο έρευνας, ώστε να δημιουργηθούν ασφαλιστικές δικλείδες και να διασφαλιστεί ότι τα μοντέλα είναι βοηθητικά και όχι επιβλαβή. Αντίστοιχα, η OpenAI δήλωσε ότι λαμβάνει σοβαρά υπόψη τους κινδύνους πειθούς, απαγορεύει πολιτικές εκστρατείες και εξαιρεί πολιτικό περιεχόμενο από την εκπαίδευση των μοντέλων της.

Η δυνατότητα επιρροής δεν περιορίζεται μόνο στην πολιτική. Μελέτες του MIT και του Κορνέλ έδειξαν ότι τα LLMs μπορούν να αλλάξουν τις απόψεις ατόμων που πιστεύουν σε θεωρίες συνωμοσίας, μειώνοντας κατά 20% τις πεποιθήσεις αυτές και διατηρώντας το αποτέλεσμα για δύο μήνες. Αντίστοιχα, μπορούν να μειώσουν τον σκεπτικισμό για το κλίμα ή τα εμβόλια. Επιπλέον, τα chatbots μπορούν να χρησιμοποιηθούν για πωλήσεις, επηρεάζοντας στάσεις απέναντι σε προϊόντα και προωθώντας συγκεκριμένες καταναλωτικές συμπεριφορές.

Αυτή η ικανότητα αποτελεί ευκαιρία για εταιρείες όπως η OpenAI και η Google, που επιδιώκουν να ενσωματώσουν διαφημίσεις και αγορές στα chatbots τους. Ωστόσο, η πειστική δύναμη των LLMs φέρει και κινδύνους: τα μοντέλα «κληρονομούν» προκαταλήψεις από τα δεδομένα και την εκπαίδευσή τους. Ερευνες του Στάνφορντ, επισημαίνουν οι FT,  έδειξαν ότι οι περισσότεροι χρήστες θεωρούν τα μεγάλα γλωσσικά μοντέλα πολιτικά «αριστερόστροφα», γεγονός που έχει ήδη προκαλέσει πολιτικές αντιδράσεις στις ΗΠΑ.

Οι ερευνητές τονίζουν ότι η δυνατότητα των LLMs να γίνουν πιο πειστικά αναμένεται να αυξηθεί με τα επόμενης γενιάς μοντέλα. Ωστόσο, η πιο αποτελεσματική μέθοδος για να χρησιμοποιηθούν τα chatbots για χειραγώγηση παραμένει η εκπαίδευσή τους τους ειδικά για αυτό το σκοπό.

Οπως προειδοποιούν οι ερευνητές του AISI, ακόμη και παράγοντες με περιορισμένους υπολογιστικούς πόρους θα μπορούσαν να εκπαιδεύσουν και να αναπτύξουν εξαιρετικά πειστικά συστήματα ΤΝ.

 

Ακολουθήστε το Protagon στο Google News

Διαβάστε ακόμη...

Διαβάστε ακόμη...