1158
Ενα μηχάνημα αποφασίζει ποιος θα πεθάνει. Βλέπουμε ήδη στη Γάζα την επόμενη μέρα του πολέμου; | Shutterstock

Αποκάλυψη-σοκ: «Η Γάζα ισοπεδώθηκε με Τεχνητή Νοημοσύνη»

Protagon Team Protagon Team 5 Απριλίου 2024, 08:45
Ενα μηχάνημα αποφασίζει ποιος θα πεθάνει. Βλέπουμε ήδη στη Γάζα την επόμενη μέρα του πολέμου;
|Shutterstock

Αποκάλυψη-σοκ: «Η Γάζα ισοπεδώθηκε με Τεχνητή Νοημοσύνη»

Protagon Team Protagon Team 5 Απριλίου 2024, 08:45

«Η μηχανή το έκανε ψυχρά». Αυτός είναι ο τίτλος που επέλεξε ο αρχισυντάκτης της ηλεκτρονικής έκδοσης του Guardian για ένα συγκλονιστικό ρεπορτάζ, που δείχνει ότι η επόμενη –και πολύ τρομακτική– μέρα των πολέμων είναι ήδη εδώ. Πράγματα που κάποτε παρακολουθούσαμε σε ταινίες επιστημονικής φαντασίας φαίνεται πως ήδη τίθενται σε εφαρμογή.

Η βρετανική εφημερίδα αποκαλύπτει ότι στον βομβαρδισμό της Γάζας το Ισραήλ χρησιμοποίησε μια βάση δεδομένων που λειτούργησε μέσω Τεχνητής Νοημοσύνης, για την επιλογή των χτυπημάτων με βόμβες που ισοπέδωναν ολόκληρα σπίτια. Η «μηχανή» αναγνώρισε 37.000 πιθανούς στόχους με βάση πληροφορίες για δεσμούς τους με τη Χαμάς. Τις πληροφορίες αυτές μετέφεραν πηγές των μυστικών υπηρεσιών του Ισραήλ που συμμετείχαν στον πόλεμο.

«Εκτός του ότι μιλούν για τη χρήση του συστήματος ΤΝ που ονομάζεται Lavender, οι πηγές των μυστικών υπηρεσιών ισχυρίζονται ότι οι ισραηλινοί στρατιωτικοί αξιωματούχοι επέτρεψαν τη θανάτωση μεγάλου αριθμού παλαιστινίων αμάχων, ιδίως κατά τις πρώτες εβδομάδες και μήνες της σύγκρουσης» αναφέρει ο Guardian.

Η βρετανική εφημερίδα τονίζει ότι η παραδοχή από πλευράς Ισραηλινών, που έγινε χωρίς πολλές περιστροφές, εγείρει σειρά νομικών και ηθικών ερωτημάτων. Παράλληλα, επιβεβαιώνει ότι έχει ανοίξει ήδη ένα αχαρτογράφητο κεφάλαιο για τη συνεργασία του ανθρώπου με μηχανές που αποφασίζουν από μόνες τους ποιος θα ζήσει και ποιος θα πεθάνει στα πεδία των μαχών.

Η μηχανή ήταν ψυχρή, δεν πενθούσε 

«Δεν θυμάμαι να υπάρχει κάποιο ανάλογο προηγούμενο» δήλωσε ένας αξιωματικός των μυστικών υπηρεσιών του Ισραήλ που χρησιμοποίησε το Lavender, προσθέτοντας ότι είχαν περισσότερη εμπιστοσύνη σε έναν «μηχανισμό που ανέλυε στατιστικά δεδομένα», παρά σε έναν πενθούντα στρατιωτικό. «Ολοι όσοι βρισκόμασταν εκεί, εμού συμπεριλαμβανομένου, χάσαμε ανθρώπους στις 7 Οκτωβρίου. Η μηχανή το έκανε ψυχρά. Και αυτό έκανε τα πράγματα πιο εύκολα».

Ενας άλλος χρήστης του ίδιου εργαλείου ΤΝ αμφισβήτησε, σύμφωνα με τον Guardian, ακόμη και το κατά πόσο ο ρόλος των ανθρώπων στη διαδικασία επιλογής είχε νόημα. «Θα επένδυα 20 δευτερόλεπτα για κάθε στόχο σε αυτό το στάδιο και θα καταπιανόμουν με δεκάδες από αυτούς κάθε μέρα. Είχα μηδενική προστιθέμενη αξία ως άνθρωπος, πέρα από το να είμαι μια σφραγίδα έγκρισης. Ετσι εξοικονομούσα πολύ χρόνο», ανέφερε το μέλος των μυστικών υπηρεσιών του Ισραήλ, σύμφωνα πάντα με τον Guardian.

Η μαρτυρία των έξι αξιωματικών των μυστικών υπηρεσιών, οι οποίοι συμμετείχαν στη χρήση συστημάτων ΤΝ για τον εντοπισμό στόχων της Χαμάς και της Παλαιστινιακής Ισλαμικής Τζιχάντ (PIJ) στον πόλεμο, δόθηκε στον δημοσιογράφο Γιουβάλ Αμπραχαμ στο πλαίσιο ρεπορτάζ για το ισραηλινο-παλαιστινιακό περιοδικό +972 Magazine (εδώ) και το εβραϊκό μέσο Local Call. Ο Guardian προδημοσίευσε τις αποκαλύψεις στην ιστοσελίδα του.

Τα έξι μέλη των μυστικών υπηρεσιών ανέφεραν ότι ο Lavender έπαιξε κεντρικό ρόλο στον πόλεμο με τη μαζική επεξεργασία δεδομένων για τον εντοπισμό ανδρών της Χαμάς, ιδίως νεαρότερης ηλικίας. Συνολικά, στο αρχικό στάδιο, το μηχάνημα ΤΝ επέλεξε 37.000 παλαιστίνιους άνδρες. Το συγκεκριμένο σύστημα αναπτύχθηκε από το επίλεκτο τμήμα πληροφοριών των Ισραηλινών Αμυντικών Δυνάμεων, τη «Μονάδα 8200».

Εγκριση για απώλειες αμάχων

Το δεύτερο, ίσως εξίσου συγκλονιστικό, στοιχείο του ίδιου ρεπορτάζ είναι ότι, σύμφωνα με τις ίδιες πηγές, οι ένοπλες δυνάμεις του Ισραήλ (IDF) «εφάρμοζαν προεγκεκριμένα περιθώρια για τον εκτιμώμενο αριθμό των αμάχων που θα μπορούσαν να σκοτωθούν». Για παράδειγμα, δύο πηγές ανέφεραν, σύμφωνα με τον Guardian, ότι στις πρώτες εβδομάδες του πολέμου επιτρεπόταν να σκοτώσουν 15 ή 20 αμάχους σε αεροπορικές επιδρομές με στόχο χαμηλόβαθμους μαχητές.

«Οι επιθέσεις σε τέτοιους στόχους γίνονταν συνήθως με τη χρήση μη κατευθυνόμενων πυρομαχικών, καταστρέφοντας ολόκληρα σπίτια και σκοτώνοντας όλους τους ενοίκους τους» αναφέρεται στο δημοσίευμα, με βάση τις μαρτυρίες. «Δεν θέλεις να σπαταλάς ακριβές βόμβες σε ασήμαντους στόχους, είναι πολύ ακριβό για τη χώρα και υπάρχει έλλειψη τέτοιων βομβών» δήλωσε ένας αξιωματικός των μυστικών υπηρεσιών.

Παλαιστίνιοι περπατούν μπροστά από τα ερείπια σπιτιών και κτιρίων που καταστράφηκαν κατά τη διάρκεια της στρατιωτικής επίθεσης του Ισραήλ στη βόρεια Λωρίδα της Γάζας (REUTERS/Mahmoud Issa)

Τα στελέχη που έδωσαν τις πληροφορίες αναφέρουν ότι η χρήση των βομβών αυτών που δεν είναι κατευθυνόμενες –τις αναφέρουν ως dumb bombs, μη «έξυπνες» βόμβες– «σήμαινε ότι κυριολεκτικά ρίχναμε όλο το σπίτι πάνω στους ενοίκους του (…) Λόγω του συστήματος, οι στόχοι δεν τελειώνουν ποτέ. Είχες άλλους 36.000 να σε περιμένουν».

Ο Guardian υπογραμμίζει ότι, σύμφωνα με ειδικούς σε θέματα πολεμικών συγκρούσεων, αν το Ισραήλ όντως χρησιμοποίησε «dumb bombs» για να ισοπεδώσει τα σπίτια χιλιάδων Παλαιστινίων με τη βοήθεια της ΤΝ, «αυτό θα μπορούσε να εξηγήσει τον συγκλονιστικά υψηλό αριθμό νεκρών στον πόλεμο». Ισως να εξηγεί και τις εικόνες της ισοπεδωμένης βόρειας Γάζας που είδαμε τις πρώτες ημέρες από τα διεθνή ειδησεογραφικά πρακτορεία.

Τι λένε επισήμως οι Ισραηλινοί 

Απαντώντας στη δημοσίευση των μαρτυριών στο +972 Magazine και στο εβραϊκό μέσο Local Call, οι IDF ανέφεραν σε ανακοίνωσή τους ότι οι επιχειρήσεις τους έγιναν σύμφωνα με τους κανόνες αναλογικότητας του διεθνούς δικαίου. Πρόσθεσαν ότι οι βόμβες «dumb bombs» αποτελούν «τυπικό οπλισμό» που χρησιμοποιείται από τους πιλότους των IDF με τρόπο που εξασφαλίζει «υψηλό επίπεδο ακρίβειας».

Η ανακοίνωση των ισραηλινών ενόπλων δυνάμεων περιέγραψε, σύμφωνα με τη βρετανική εφημερίδα, το σύστημα Lavender ως μια βάση δεδομένων που χρησιμοποιείται «προκειμένου να παραχθούν επικαιροποιημένα σύνολα πληροφοριών σχετικά με τα ένοπλα μέλη των τρομοκρατικών οργανώσεων. Δεν πρόκειται για κατάλογο επιβεβαιωμένων στρατιωτικών στελεχών που είναι επιλέξιμοι για επιθέσεις».

«Οι IDF δεν χρησιμοποιούν ένα σύστημα ΤΝ που αναγνωρίζει τρομοκράτες ή προσπαθεί να προβλέψει αν ένα άτομο είναι τρομοκράτης» προστίθεται στην ανακοίνωση. «Τα πληροφοριακά συστήματα είναι απλώς εργαλεία για τους αναλυτές στη διαδικασία αναγνώρισης στόχων».

Επιμένει η εφημερίδα 

Το ρεπορτάζ περιγράφει ωστόσο, με βάση τις μαρτυρίες, μια διαφορετική κατάσταση. Καθώς ο βομβαρδισμός της Γάζας από τις IDF γινόταν πιο εντατικός, οι διοικητές απαιτούσαν τη συνεχή διοχέτευση στόχων. «Μας πίεζαν συνεχώς: “Φέρτε μας περισσότερους στόχους”. Πραγματικά μάς φώναζαν» δήλωσε ένας αξιωματικός των μυστικών υπηρεσιών. «Μας είπαν: “Τώρα πρέπει να γ….. τη Χαμάς, όποιο κι αν είναι το κόστος. Ο,τι μπορείτε, βομβαρδίζετε”» προσθέτει ο ίδιος.

Η εφημερίδα σημειώνει ότι, για να ικανοποιήσουν αυτή την απαίτηση, οι IDF άρχισαν να βασίζονται σε μεγάλο βαθμό στο Lavender, ώστε να δημιουργήσουν μια βάση δεδομένων με άτομα που κρίθηκε ότι είχαν τα χαρακτηριστικά ενός ενόπλου της Παλαιστινιακής Ισλαμικής Τζιχάντ ή της Χαμάς.

Οι πηγές που μίλησαν στο ρεπορτάζ ανέφεραν επίσης πως η επίλεκτη μονάδα των ισραηλινών μυστικών υπηρεσιών που διεξήγαγε την επιχείρηση «κατέληξε στο συμπέρασμα, μετά από τυχαία δειγματοληψία και διασταύρωση των προβλέψεών της, ότι το σύστημα Lavender είχε επιτύχει ποσοστό ακρίβειας 90%, οδηγώντας τις IDF να εγκρίνουν τη σαρωτική χρήση του ως εργαλείου για την επιλογή στόχων»…

«Υπήρχαν στιγμές που το στέλεχος της Χαμάς οριζόταν ευρύτερα, και τότε η μηχανή άρχιζε να μας φέρνει κάθε είδους προσωπικό της πολιτικής άμυνας, όπως αστυνομικούς, στους οποίους θα ήταν κρίμα να σπαταλήσουμε βόμβες. Βοηθούν την κυβέρνηση της Χαμάς, αλλά δεν θέτουν πραγματικά σε κίνδυνο τους στρατιώτες» ανέφερε ένας από τους ισραηλινούς πράκτορες.

Μια άλλη πηγή δικαιολόγησε, σύμφωνα με τη βρετανική εφημερίδα, τη χρήση του Lavender για τον εντοπισμό χαμηλόβαθμων στόχων: «Οταν πρόκειται για έναν νεαρό μαχητή, δεν θέλεις να επενδύσεις ανθρώπινο δυναμικό και χρόνο σε αυτό». Οι οδηγίες ήταν ότι σε καιρό πολέμου δεν υπάρχει επαρκής χρόνος για να «βρεθούν προσεκτικά τα ενοχοποιητικά στοιχεία για κάθε στόχο».

«Οπότε, είσαι πρόθυμος να αναλάβεις το περιθώριο λάθους μέσω της χρήσης Τεχνητής Νοημοσύνης, να ρισκάρεις παράπλευρες απώλειες και τον θάνατο αμάχων» πρόσθεσε η ίδια πηγή.

Ακολουθήστε το Protagon στο Google News

Διαβάστε ακόμη...

Διαβάστε ακόμη...