Πολλοί φοβούνται ότι οι ταινίες επιστημονικής φαντασίας όπου τα ρομπότ αναλαμβάνουν μόνα τους δράση και προκαλούν πολέμους μπορεί να γίνουν πραγματικότητα με τα νέας γενιάς αυτόνομα οπλικά συστήματα που αναπτύσσονται | Shutterstock
Θέματα

Κίνδυνος, έρχονται τα ανεξέλεγκτα ρομπότ-πολεμικές μηχανές

Μία μηχανικός της Google η οποία αρνήθηκε να συμμετάσχει στο πρόγραμμα κατασκευής οπλικών συστημάτων τεχνητής νοημοσύνης που έχει αναλάβει ο γίγαντας του Διαδικτύου. Υποστηρίζει ότι αναπτύσσεται μια νέα γενιά αυτόνομων όπλων που είναι πιθανό να προκαλέσουν από μόνα τους πολεμικές συγκρούσεις
Protagon Team

Η Google αποφάσισε να συνεργαστεί με τον αμερικανικό Πεντάγωνο για την ανάπτυξη προηγμένων τεχνολογιών που θα αύξαναν δραματικά την νοημοσύνη των ιπτάμενων αυτόνομων οχημάτων τα οποία χρησιμοποιεί ο αμερικανικός στρατός, των διαφόρων ειδών drones δηλαδή.

Η Λόρα Νόλαν, μια εκ των κορυφαίων μηχανικών της Google, παραιτήθηκε όταν ο γίγαντας των ιντερνετικών υπηρεσιών της ζήτησε να συμμετάσχει σε αυτό το πρόγραμμα. Η Νόλαν κατήγγειλε τόσο το συγκεκριμένο πρόγραμμα όσο και γενικότερα τη δημιουργία μιας νέας γενιάς αυτόνομων οπλικών συστημάτων τα οποία ή ίδια χαρακτηρίζει «ρομπότ δολοφόνους». Υποστηρίζει μάλιστα ότι πρέπει να υπάρξει απαγόρευση στην κατασκευή και πολύ περισσότερο στην χρήση αυτόνομων οπλικών συστημάτων τα οποία δεν θα ελέγχουν έστω και από μακριά άνθρωποι αλλά θα δρουν και θα παίρνουν αποφάσεις μόνα τους.

Με απλά λόγια η Νόλαν φοβάται ότι έχουμε μπει σε μια πορεία που θα οδηγήσει στο να γίνουν πραγματικότητα τα εφιαλτικά σενάρια ταινιών επιστημονικής φαντασίας όπως το «Παιχνίδια Πολέμου» και ο «Εξολοθρευτής» όπου συστήματα και ρομπότ τεχνητής νοημοσύνης αναλαμβάνουν μόνα τους δράση και προκαλούν πολεμικές συρράξεις.

Το Τ-14 Armata είναι ένα αυτόνομο τανκ που θα ρίξει στις μάχες η Ρωσία

H Νόλαν μετέχει πλέον στην οργάνωση «Εκστρατεία Κατά των Ρομπότ Δολοφόνων» και όπως αναφέρει σε δημοσίευμα της η εφημερίδα Guardian συναντήθηκε και ενημέρωσε διπλωμάτες του ΟΗΕ στην Νέα Υόρκη και στην Γενεύη για τους κινδύνους που κρύβει ή ύπαρξη των αυτόνομων οπλικών συστημάτων. «Η πιθανότητα να συμβεί κάτι καταστροφικό σχετίζεται με τον αριθμό των αυτόνομων οπλικών συστημάτων που θα συνυπάρχουν σε μια περιοχή την ίδια στιγμή. Αν υπάρχουν εκατοντάδες ή και χιλιάδες τέτοια οπλικά συστήματα οι πιθανότητες να συμβούν αχρείαστες επιθέσεις, ακόμη και ακρότητες με αχρείαστες μαζικές δολοφονίες είναι μεγάλες. Μπορεί να συμβούν κατά λάθος πολύ σοβαρά περιστατικά επειδή αυτά τα συστήματα θα αρχίσουν να συμπεριφέρονται με μη αναμενόμενους τρόπους. Για αυτό κάθε προηγμένο τεχνολογικά οπλικό σύστημα πρέπει να βρίσκεται υπό ανθρώπινο έλεγχο αλλιώς θα πρέπει να απαγορευτούν επειδή θα είναι πολύ απρόβλεπτα και άρα επικίνδυνα», υποστηρίζει η Νόλαν.

Σύμφωνα με την Νόλαν ένα drone που εντοπίζει οπλισμένους άνδρες δεν θα μπορεί να αντιληφθεί αν πρόκειται για στρατιώτες ή για κυνηγούς ή για οτιδήποτε άλλο, θα τους δει ως πιθανή «απειλή» και θα τους επιτεθεί. «Οσο και να εκπαιδεύεις ένα λογισμικό δεν μπορείς ποτέ να του δώσεις την εμπειρία και την δυνατότητα να διακρίνει καταστάσεις με τον ίδιο τρόπο που το κάνει ο άνθρωπος. Πώς θα καταλάβει ένα ρομπότ αν κάποιο άτομο 18 ετών με ένα όπλο στο χέρι απλά κυνηγά λαγούς ή αν είναι αντάρτης;»

Το Sea Hunter που δημιούργησε το τμήμα ανάπτυξης προηγμένων τεχνολογιών του αμερικανικού στρατού (DARPA) μπορεί να περιπολεί για μήνες χωρίς να εμπλέκεται κανένας άνθρωπος

«Το άκρως ανησυχητικό με αυτά τα οπλικά συστήματα είναι ότι ο μόνος τρόπος να δοκιμαστούν είναι σε πραγματικές συνθήκες, να σταλούν δηλαδή σε πολεμικά μέτωπα ή σε στρατιωτικές επιχειρήσεις. Αν θέλεις να δεις και να τεστάρεις τις αποφάσεις που παίρνει ένα τέτοιο οπλικό σύστημα αυτό πρέπει να γίνει σε πραγματικό χρόνο. Ισως αυτό να συμβαίνει τώρα στην Συρία. Ποιος ξέρει; Η Ρωσία άλλωστε είναι κάθετα αντίθετη σε οποιαδήποτε συζήτηση για τον έλεγχο και πολύ περισσότερο για την απαγόρευση των αυτόνομων οπλικών συστημάτων», υπενθυμίζει η Νόλαν.

Οι πιθανές απειλές

Ορισμένα από τα αυτόνομα οπλικά συστήματα που αναπτύσσονται από διάφορες χώρες