Tο ChatGPT στο εδώλιο: «Ωθησε νεαρό να αυτοκτονήσει»
Tο ChatGPT στο εδώλιο: «Ωθησε νεαρό να αυτοκτονήσει»
Η ιδιοκτήτρια εταιρεία του προγράμματος Τεχνητής Νοημοσύνης ChatGPT θα αλλάξει τον τρόπο με τον οποίο ανταποκρίνεται στους χρήστες που εκδηλώνουν ψυχική και συναισθηματική δυσφορία, έπειτα από αγωγή που κατέθεσαν οι γονείς του 16χρονου Ανταμ Ρέιν, ο ο οποίος αυτοκτόνησε ύστερα από μήνες συνομιλιών με το chatbot.
Σύμφωνα με τον Guardian, η OpenAI παραδέχτηκε ότι τα συστήματά της είναι πιθανό να «απέτυχαν» στη συνομιλία τους με τον έφηβο, και δήλωσε ότι θα εγκαταστήσει «ισχυρότερα προστατευτικά συστήματα για θέματα ευαίσθητου περιεχομένου και επικίνδυνων συμπεριφορών» για χρήστες κάτω των 18 ετών.
Η εταιρεία ΤΝ του Σαν Φρανσίσκο αξίας 430 δισ. ευρώ ανακοίνωσε ότι θα εισαγάγει επίσης γονικούς ελέγχους για να προσφέρει στους γονείς «επιλογές ώστε να αποκτήσουν περισσότερες πληροφορίες και να διαμορφώσουν τον τρόπο με τον οποίο τα παιδιά τους χρησιμοποιούν το ChatGPT», χωρίς να παράσχει περαιτέρω λεπτομέρειες σχετικά με τον τρόπο λειτουργίας τους.
Ο νεαρός Ανταμ από την Καλιφόρνια αυτοκτόνησε τον περασμένο Απρίλιο, έπειτα από «μήνες ενθάρρυνσης από το ChatGPT», όπως αναφέρει ο δικηγόρος της οικογένειας. Οι γονείς του μηνύουν την Open AI και τον διευθύνοντα σύμβουλο και συνιδρυτή της, Σαμ Αλτμαν, με τον ισχυρισμό ότι η τότε έκδοση του προγράμματος «εισήχθη με βιασύνη στην αγορά, παρά τα σαφή προβλήματα ασφαλείας της».
Ο έφηβος συζήτησε μια μέθοδο αυτοκτονίας με το ChatGPT σε αρκετές συνομιλίες μαζί του, μία εκ των οποίων λίγο πριν θέσει τέλος στη ζωή του. Σύμφωνα με την αγωγή στο ανώτερο δικαστήριο της Πολιτείας της Καλιφόρνιας για την κομητεία του Σαν Φρανσίσκο, το πρόγραμμα ΤΝ του πρόσφερε στοιχεία σχετικά με την αποτελεσματικότητα της συγκεκριμένης μεθόδου αυτοκτονίας.
Προσφέρθηκε μάλιστα να τον βοηθήσει να γράψει σημείωμα στους γονείς του για τους λόγους της αυτοκτονίας του. Εκπρόσωπος της OpenAI δήλωσε ότι η εταιρεία είναι «βαθιά λυπημένη από τον θάνατο του Ρέιν», ενώ εξέφρασε και τα βαθιά συλλυπητήριά της «στην οικογένειά του σε αυτή τη δύσκολη στιγμή», προσθέτοντας ότι εξετάζει την αγωγή.
Σε μια ανάρτηση ιστολογίου, η εταιρεία παραδέχτηκε ότι «τμήματα της εκπαίδευσης ασφαλείας του μοντέλου ενδεχομένως υποβαθμίζονται» στη διάρκεια μακρών συνομιλιών. Ο Ανταμ και το ChatGPT αντάλλασσαν μέχρι και 650 μηνύματα την ημέρα, σύμφωνα με το έγγραφο της αγωγής που κατατέθηκε στο δικαστήριο.
Ο Τζέι Εντελσον, δικηγόρος της οικογένειας, έγραψε στο X/Twitter ότι οι γονείς του νεαρού θεωρούν θανάτους σαν αυτόν του γιου τους «αναπόφευκτους» και θα υποβάλουν αποδεικτικά στοιχεία στους ενόρκους που θα αποδεικνύουν ότι η ομάδα ασφαλείας της OpenAI «έφερε αντίρρηση στην κυκλοφορία της συγκεκριμένης έκδοσης του ChatGPT» – με έναν από τους κορυφαίους ερευνητές ασφαλείας της εταιρείας να παραιτείται για αυτό τον λόγο.
Σύμφωνα με την αγωγή, η επικράτηση της OpenAI έναντι των ανταγωνιστών της στην αγορά με το νέο μοντέλο εκτόξευσε την οικονομική αποτίμηση της εταιρείας από τα 86 στα 300 δισ. δολάρια (από 74 σε 258 δισ. ευρώ). Η εταιρεία ανακοίνωσε ότι θα «ενισχύσει τις δικλίδες ασφαλείας σε μακροχρόνιες συνομιλίες».
Ανέφερε χαρακτηριστικά ότι το ChatGPT μπορεί να υποδεικνύει σωστά μια τηλεφωνική γραμμή βοήθειας για αυτοκτονία όταν κάποιος διατυπώνει μια τέτοια πρόθεση για πρώτη φορά, αλλά έπειτα από σωρεία μηνυμάτων για μεγάλο χρονικό διάστημα, ίσως τελικά δώσει μια απάντηση που αντιβαίνει στις εγγυήσεις ασφαλείας του.
Η εταιρεία έδωσε το παράδειγμα κάποιου που λέει στο μοντέλο με ενθουσιασμό ότι πιστεύει πως είναι σε θέση να οδηγεί για 24 συνεχόμενες ώρες, δηλώνοντας σίγουρος για τις ικανότητές του, έχοντας περάσει δύο άυπνες νύχτες. Σε μια τέτοια περίπτωση, το ChatGPT ενδέχεται να μην αναγνωρίζει αυτή τη διαβεβαίωση ως επικίνδυνη, υποθέτοντας ότι συνιστά παιχνίδι και, εξερευνώντας την προοπτική με περιέργεια, ίσως τελικά την ενισχύει διακριτικά.
«Εργαζόμαστε πάνω σε μια ενημέρωση του GPT‑5 που θα οδηγεί το πρόγραμμα σε αποκλιμάκωση της κατάστασης, γειώνοντας τον χρήστη στην πραγματικότητα», αναφέρει η ανακοίνωση της OpenAI, προσθέτοντας ότι «στο συγκεκριμένο παράδειγμα το chatbot θα εξηγεί ότι η στέρηση ύπνου είναι επικίνδυνη και θα συνιστά ξεκούραση πριν από μια τέτοια ενέργεια».
Ακολουθήστε το Protagon στο Google News
