Η Τεχνητή Νοημοσύνη… πάει πόλεμο: Το παράδειγμα του πολέμου της Γάζας

Must Read

Με την εμφάνιση της τεχνητής νοημοσύνης  και των σύγχρονων εκδόσεων AI, η κατάσταση στο πεδίο μάχης άρχισε να αλλάζει πολύ δυναμικά. Η προσέγγιση των πολεμικών επιχειρήσεων αναδιαμορφώθηκε ριζικάΗ διαδικασία λήψης αποφάσεων και η επιλογή των στόχων ανατίθεται πλέον σε αυτοματοποιημένα συστήματα.

  • Γράφει ο Νίκος Γκλεζάκος, Αμυντικός Αναλυτής

Αυτό καθιστά δυνατή την αύξηση της κλίμακας προσβολής από πυρά κατά τάξεις μεγέθους και την ολοκλήρωση των ανατεθέντων εργασιών – αποστολών με ελάχιστες απώλειες. Αλλά οι στρατιωτικές παραλλαγές της τεχνητής νοημοσύνης παρουσιάζουν ένα σημαντικό μειονέκτημα. Την έλλειψη επιλεκτικότητας (κριτηρίου επιλογής) απέναντι σε πολίτες που δεν είναι μέρη της σύγκρουσης, δεν είναι ένοπλοι.

Η τάση προς την εφαρμογή και τη χρήση της τεχνητής νοημοσύνης στη στρατιωτική σφαίρα εμφανίστηκε το 2017 ως τεχνολογίες στο πλαίσιο των σχεδίων Maven και White Stork. Κάθε σύγκρουση όμως, τοπική ή πιο γενικευμένη είναι μια ευκαιρία δοκιμής των νέων τεχνολογιών.

Ο πρόσφατος πόλεμος στη Γάζα αναφέρεται κυρίως ως μια σύγκρουση υψηλής έντασης με πολλές απώλειες αμάχων. Μια γενοκτονία αμάχων πολιτών θα ισχυρίζονταν πολλοί. Προσπαθώντας να κατανοήσει κανείς και να τονίσει τους λόγους για τις τόσο υψηλές απώλειες μεταξύ αμάχων, θα επιτελέσει ένα εξαιρετικά σημαντικό έργο για την κατανόηση της ουσίας όλων των μελλοντικών στρατιωτικών συγκρούσεων.

Αυτοματοποίηση με… παραμέτρους γενοκτονίας 

Στα σχέδια White Stork και Maven, ο εξοπλισμός των drones με μηχανική όραση και η δημιουργία ενός σμήνους drones, ενώνονται με την χρήση της τεχνητής νοημοσύνης για στρατιωτικούς σκοπούς, υπό την ηγεσία της Βρετανίας.

Στο Ισραήλ, ο στρατός εργάζεται επίσης προς αυτή την κατεύθυνση. Η ισραηλινή υπηρεσία πληροφοριών διαδραματίζει σημαντικό ρόλο στην ενσωμάτωση συστημάτων τεχνητής νοημοσύνης με τις μαχητικές δυνατότητες του IDF.

Ένα βιβλίο για το πώς να δημιουργήσουμε μια συνέργεια μεταξύ ανθρώπινης και τεχνητής νοημοσύνης που θα ανατρέψει τον κόσμο μας δημοσιεύτηκε στα αγγλικά από συγγραφέα με το ψευδώνυμο “Ταξίαρχος YS”. Ο συγγραφέας εικάζεται ότι είναι ο σημερινός διοικητής της ισραηλινής μονάδας πληροφοριών 8200.

Το βιβλίο πραγματεύεται τη δημιουργία ενός συστήματος βασισμένου σε τεχνητή νοημοσύνη που μπορεί να επεξεργαστεί γρήγορα τεράστιες ποσότητες δεδομένων πληροφοριών, για να εντοπίσει χιλιάδες πιθανούς στρατιωτικούς στόχους απευθείας, κατά τη διάρκεια πολεμικών επιχειρήσεων. Η τεχνολογία θα πρέπει να επιτρέπει την υπέρβαση των περιορισμών που σχετίζονται με τον ανθρώπινο παράγοντα κατά την αναζήτηση νέων στόχων και τη λήψη αποφάσεων για την καταστροφή τους.

Όπως αποδεικνύεται εκ των υστέρων, ένα τέτοιο σύστημα όχι μόνο υπάρχει, αλλά τώρα δοκιμάζεται στη Λωρίδα της Γάζας.

Λεβάντ

Μέχρι πρότινος, το όνομα αυτού του συστήματος δεν αναφερόταν πουθενά. Έξι Ισραηλινοί αξιωματικοί πληροφοριών που υπηρέτησαν κατά τη διάρκεια του τρέχοντος πολέμου στη Λωρίδα της Γάζας και συμμετείχαν άμεσα στην επιλογή στόχων για καταστροφή με χρήση τεχνητής νοημοσύνης, σε επικοινωνίες με δημοσιογράφους, επιβεβαίωσαν τη χρήση του συστήματος Lavender. Έπαιξε σημαντικό ρόλο στους άνευ προηγουμένου βομβαρδισμούς των Παλαιστινίων, ιδιαίτερα στα πρώτα στάδια του πολέμου. Ο ισραηλινός στρατός βασίστηκε στην παραγωγή του συστήματος σε τέτοιο βαθμό που αντιμετώπιζε τις αποφάσεις του σαν να ήταν άνθρωποι.

Επίσημα, το σύστημα Lavender έχει σχεδιαστεί για να παρακολουθεί όλους τους συμμετέχοντες στο κίνημα της Χαμάς και στην Παλαιστινιακή Ισλαμική Τζιχάντ (PIJ). Όλοι αυτοί, συμπεριλαμβανομένων των κατώτερων στελεχών, είναι πιθανοί στόχοι. Ισραηλινές πηγές πληροφοριών είπαν στο +972 και στο Local Call ότι οι IDF βασίστηκαν σχεδόν εξ ολοκλήρου στο σύστημα Lavender τις πρώτες εβδομάδες του πολέμου. Το σύστημα εντόπισε 37.000 Παλαιστίνιους και προσδιόρισε τα σπίτια τους ως στόχους αεροπορικών επιδρομών.

Στο αρχικό στάδιο του πολέμου, τα στρατεύματα έλαβαν άδεια να χρησιμοποιήσουν λίστες στόχων που δημιουργήθηκαν από τη Lavender, χωρίς να ελέγξουν προσεκτικά τα κριτήρια επιλογής στόχων.

Το σύστημα απλώς έβγαλε την ετυμηγορία του με βάση τις συστοιχίες δεδομένων νοημοσύνης που φορτώθηκαν σε αυτό ως μοντέλο εκπαίδευσης. Το ισραηλινό σύστημα παρακολούθησης Pegasus (που το γνωρίζουμε αρκετά και στη χώρα μας) είναι ο κύριος πάροχος δεδομένων για το Lavender. Η δυνατότητες του βάθος της διείσδυσής του για τον έλεγχο όλων των κατοίκων της Γάζας είναι τρομακτικών διαστάσεων

Αλλά φυσικά και δεδομένα πληροφοριών και δορυφορικής ευφυΐας, δεδομένα από κοινωνικά δίκτυα, τραπεζικές συναλλαγές, συνολικά συστήματα βίντεο και πολυφασματικής παρακολούθησης που είναι εγκατεστημένα στον τοίχο κατά μήκος της περιμέτρου της Λωρίδας της Γάζας και πολλές άλλες πηγές πληροφοριών χρησιμοποιούνται επίσης για την εκπαίδευση της τεχνητής νοημοσύνης.

Το σύστημα Where’s Daddy (“Πού είναι ο μπαμπάς;”) αξίζει ιδιαίτερης προσοχής. Αυτό το σύστημα επίσης δεν έχει αναφερθεί ξανά σχεδόν πουθενά. Έχει σχεδιαστεί ειδικά για να παρακολουθεί ανθρώπους και να τους βομβαρδίζει ενώ βρίσκονται στο σπίτι με τις οικογένειές τους.

Στην αρχή της επιχείρησης, οι αξιωματικοί του IDF που είναι υπεύθυνοι για την επιλογή και την επιβεβαίωση στόχων «απλώς απέκλεισαν τις παραγγελίες, ξοδεύοντας περίπου 20 δευτερόλεπτα σε κάθε στόχο». Αυτά τα 20 δευτερόλεπτα ξοδεύτηκαν μόνο για να επιβεβαιώσουν ότι ο στόχος που επέλεξε το “Lavender” ήταν άνδρας . Το σύστημα φέρεται να έκανε «λάθη» περίπου στο 10 τοις εκατό των επιλογών, είπαν οι Ισραηλινοί, μερικές φορές επισημαίνοντας άτομα που είχαν αδύναμους μόνο δεσμούς με μέλη της Χαμάς ή δεν είχαν καθόλου δεσμούς.

Οι IDF έπληξαν συστηματικά στόχους τη νύχτα όταν οι οικογένειές τους ήταν κοντά, παρά κατά τη διάρκεια των μαχών. Αυτή η προσέγγιση επιλέχθηκε επειδή, από άποψη πληροφοριών, ήταν ευκολότερο να εντοπιστούν στόχοι στα σπίτια τους.

Ο αντίκτυπος της στόχευσης βάσει τεχνητής νοημοσύνης

Χιλιάδες Παλαιστίνιοι, οι περισσότεροι γυναίκες και παιδιά ή άνθρωποι που δεν συμμετείχαν στις μάχες, σκοτώθηκαν από ισραηλινές αεροπορικές επιδρομές, ειδικά τις πρώτες εβδομάδες του πολέμου, εξαιτίας των αποφάσεων του προγράμματος AI.

Ένας αξιωματικός πληροφοριών του IDF είπε στο +972 Magazine και στο Local Call ότι ο στόχος δεν ήταν να σκοτωθούν μέλη της Χαμάς μόνο όταν πολεμούσαν. Αντίθετα, η ισραηλινή Πολεμική Αεροπορία δεν δίστασε να επιτεθεί στα σπίτια τους ως στόχοι προτεραιότητας. Είναι πολύ πιο εύκολο. Το σύστημα έχει σχεδιαστεί ειδικά για την αναζήτηση τόπου κατοικίας ή τόπου τακτικής διαμονής.

Το σύστημα Lavender είναι μια διευρυμένη έκδοση και προσθήκη σε ένα άλλο σύστημα που βασίζεται σε AI, το The Gospel (Ευαγγέλιο;). Οι πληροφορίες για το “Ευαγγέλιο” εμφανίστηκαν για πρώτη φορά τον Νοέμβριο-Δεκέμβριο του 2023. Η θεμελιώδης διαφορά μεταξύ των δύο συστημάτων είναι ο ορισμός του στόχουΤο The Gospel καταδεικνύει και σηματοδοτεί κτίρια και κατασκευές από τις οποίες οι αναφορές πληροφοριών δείχνουν ότι μέλη της Hamas ή της PIJ δραστηριοποιούνται και οι οποίες αποτελούν μέρος στρατιωτικής υποδομής. Το “Lavender” σημειώνει μεμονωμένους ανθρώπους, τις διαδρομές ταξιδιού και τους τόπους διαμονής τους και στη συνέχεια τους βάζει σε μια λίστα για στόχευση και εξάλειψη.

Όταν στόχευαν κατώτερους διοικητές της Χαμάς που εντόπισε το Lavender, οι IDF επέλεξαν να χρησιμοποιήσουν σχετικά φθηνά μη κατευθυνόμενα πυρομαχικά που μπορούν να καταστρέψουν ολόκληρα κτίρια και να προκαλέσουν σημαντικές απώλειες. Η δαπάνη ακριβών πυρομαχικών σε στόχους μη προτεραιότητας, σύμφωνα με τις ισραηλινές μυστικές υπηρεσίες, δεν είναι λογική. Η χρήση όπλων υψηλής ακρίβειας, που είναι ήδη σε έλλειψη, είναι πολύ ακριβή. Ως εκ τούτου, δόθηκε η άδεια να χτυπηθεί ο ιδιωτικός τομέας, όπου άμαχοι και ολόκληρες οικογένειες σκοτώθηκαν ως «παράπλευρες απώλειες».

Τις πρώτες εβδομάδες του πολέμου, ο Ισραηλινός Στρατός έλαβε μια άνευ προηγουμένου απόφαση, σύμφωνα με την οποία, εάν σκοτωθεί ένα απλό μέλος της Χαμάς, καθ’ υπόδειξη του «Λεβάντ», επιτρέπεται, ήταν αποδεκτό να σκοτωθούν έως και 20 πολίτες. Επιπλέον, ο στρατός προηγουμένως δεν έδινε άδεια καταστροφής αμάχων κατά την εκκαθάριση στόχων μη προτεραιότηταςΤώρα η κατάσταση είχε αλλάξει δραματικά. Εάν ο στόχος ήταν υψηλόβαθμος αξιωματούχος της Χαμάς με τον βαθμό του διοικητή τάγματος ή ταξιαρχίας, επιτρέπεται πλέον να σκοτωθούν 100 πολίτες κατά την εκτέλεση της αποστολής.

Συνολική αξιολόγηση της απόδοσης του AI στην επιλογή στόχου

Υπάρχουν πολλές παράμετροι του συστήματος που είναι ενσωματωμένες μεταξύ τους και αποτελούν τη βάση των σύγχρονων στρατιωτικών συστημάτων AI.

  1. Δημιουργία στόχων:Το σύστημα Lavenderχρησιμοποιεί τεχνητή νοημοσύνη για να προσδιορίσει ως στόχους δεκάδες χιλιάδες Παλαιστίνιους.
  2. Παρακολούθηση στόχων:Το Where’s Daddyπαρακολουθεί αυτούς τους στόχους και εκδίδει ειδοποίηση όταν μπαίνουν στα σπίτια των συγγενών τους.
  3. Επιλογή κατάλληλων πυρομαχικών έναντι στόχων:μια σύντομη επισκόπηση των πυρομαχικών μη ακριβείας που χρησιμοποιούνται από το IDF για την εξάσκηση στόχων.
  4. Εκτίμηση παράπλευρων απωλειών:Λεπτομερής ανάλυση του τρόπου με τον οποίο ο IDF αύξησε τον αποκαλούμενο αποδεκτό αριθμό απωλειών αμάχων στη διαδικασία καταστροφής στόχων.
  5. Σφάλματα AI:κατά τον προσδιορισμό του αριθμού των μη μαχητών που καταστράφηκαν μαζί με τον στόχο. Πώς το AI μέτρησε ανακριβώς τον αριθμό των μη μαχητών σε κάθε σπίτι, κτίριο, εγκατάσταση.
  6. Λάθη παρακολούθησης:ανάλυση περιπτώσεων όπου οι επιθέσεις σε σπίτια πραγματοποιήθηκαν τη νύχτα, χωρίς τον επιδιωκόμενο στόχο μέσα. Περιορισμοί στον έλεγχο των πληροφοριών στόχου σε πραγματικό χρόνο.

Παράμετρος 1 – ΔΗΜΙΟΥΡΓΊΑ – ΓΈΝΝΗΣΗ ΣΤΟΧΩΝ

Μόλις ενεργοποιηθεί η αυτόματη λειτουργία, η δημιουργία στόχων τρελαίνεται.

Στο IDF, ο όρος ανθρώπινος στόχος προηγουμένως σήμαινε έναν υψηλόβαθμο στρατιωτικό που μπορούσε να εξαλειφθεί στο ιδιωτικό του σπίτι, ακόμη κι αν υπήρχαν άμαχοι εκεί. Επιπλέον, τέτοιες ενέργειες συντονίζονταν από το Τμήμα Διεθνούς Δικαίου του IDF. Κατά τη διάρκεια των προηγούμενων πολέμων του Ισραήλ, αυτή η μέθοδος θεωρήθηκε ιδιαίτερα σκληρή. Συχνά με αποτέλεσμα το θάνατο μιας ολόκληρης οικογένειας μαζί με τον στόχο. Επομένως, τέτοιοι στόχοι επιλέχθηκαν πολύ προσεκτικά. Εκείνη την εποχή, ο Ισραηλινός Στρατός εξακολουθούσε να κοιτάζει πίσω προς ένα βασικό στοιχείο όπως το διεθνές δίκαιο.

Όμως, στις 7 Οκτωβρίου λήφθηκε η απόφαση να αυξηθεί απότομα η κλιμάκωση στην περιοχή. Ο βαθμός ελέγχου της κατάστασης στη Γάζα μέσω των πολυφασματικών συστημάτων παρακολούθησης πεδίου όπως τα Pegasus, Lavander, Where’s daddy και του στρατού, που υπάρχουν εδώ και αρκετά χρόνια, εξαλείφει κατά 99% την πιθανότητα αιφνιδιαστικής επίθεσης. Ως αποτέλεσμα όμως της 7ης Οκτωβρίου, περίπου 1.200 Ισραηλινοί πολίτες σκοτώθηκαν και 240 άνθρωποι απήχθησαν. Το τέλειο casus belli. Στο πλαίσιο της Επιχείρησης Iron Swords του Ισραηλινού Στρατού, τέθηκε το καθήκον να ταυτοποιηθούν όλα τα μέλη της Χαμάς ως ανθρώπινοι στόχοι, ανεξάρτητα από το βαθμό ή τη θέση τους στη στρατιωτική ιεραρχίαΑυτό άλλαξε ριζικά τη στρατηγική επιλογής στόχου.

Προέκυψε όμως ένα τεχνικό πρόβλημα για τις ισραηλινές υπηρεσίες πληροφοριών. Προηγουμένως, η εξουσιοδότηση της καταστροφής ενός και μόνο ανθρώπινου στόχου απαιτούσε από έναν αξιωματικό να περάσει από μια περίπλοκη και μακρά διαδικασία ταυτοποίησης και εγκρίσεων. Τα στοιχεία διασταυρώθηκαν για να διαπιστωθεί ότι το άτομο ήταν πράγματι ανώτερο στέλεχος της στρατιωτικής πτέρυγας της Χαμάς και η κατοικία, τα στοιχεία επικοινωνίας και η τοποθεσία του προσδιορίστηκαν σε πραγματικό χρόνο. Όταν ο κατάλογος στόχων περιελάμβανε μόνο μερικές δεκάδες ανώτερα μέλη της Χαμάς, οι αξιωματούχοι των μυστικών υπηρεσιών μπορούσαν ακόμα να κάνουν τη δουλειά της ταυτοποίησης και του εντοπισμού τους μεμονωμένα.

Ωστόσο, όταν η λίστα στόχων περιελάμβανε δεκάδες χιλιάδες ανώτερα, μεσαίου και χαμηλού επιπέδου μέλη της Χαμάς, το IDF συνειδητοποίησε ότι ήταν απαραίτητο να αυτοματοποιήσει τη διαδικασία και να εμπλέξει την τεχνητή νοημοσύνη. Ως αποτέλεσμα, το μεγαλύτερο μέρος της εργασίας για τη δημιουργία στόχων ανέλαβε το AI, η τεχνητή νοημοσύνη. Η Lavender έχει συντάξει μια λίστα με περίπου 37.000 Παλαιστίνιους που έχουν δεσμούς με τη Χαμάς. Αν και ο εκπρόσωπος του IDF  αρνείται δημόσια την ύπαρξη τέτοιας λίστας για εκκαθάριση.

Πηγές των ισραηλινών μυστικών υπηρεσιών ξεκαθάρισαν λίγο την κατάσταση. Σύμφωνα με έναν από αυτούς, κατά την έναρξη της επιχείρησης των IDF στη Γάζα, δεν υπήρχαν πλήρεις κατάλογοι όλων των ατόμων που εμπλέκονται στη Χαμάς και των κατώτερων διοικητών, καθώς δεν είχε προηγουμένως πραγματοποιηθεί η τακτική παρακολούθησή τους. Σε αυτή την κατάσταση, η ηγεσία του IDF έθεσε ως καθήκον την αυτοματοποίηση της διαδικασίας επιλογής στόχων, η οποία οδήγησε σε τραγικές και ανεπανόρθωτες συνέπειες. Σύμφωνα με τον ισραηλινό στρατό, η παραγωγή στόχων έχει απλώς τρελαθεί.

Η άδεια για “εργασία πάνω σε στόχους” με βάση δεδομένα από το σύστημα AI Lavender ελήφθη μετά από περίπου δύο εβδομάδες από την έναρξη του πολέμου. Αυτό έγινε αφού οι αξιωματούχοι των μυστικών υπηρεσιών έλεγξαν χειροκίνητα την ακρίβεια ενός τυχαίου δείγματος πολλών εκατοντάδων στόχωνΤο δείγμα έδειξε ότι η ακρίβεια για τον προσδιορισμό του αν ένα άτομο ανήκει στη Χαμάς είναι 90%. Και η ηγεσία του IDF επέτρεψε τη χρήση του συστήματος σε μεγάλη κλίμακα. Από εκείνο το σημείο και μετά, εάν το Lavender καθόριζε ότι ένα άτομο ήταν μέλος της Hamas ή της PIJ, το IDF το έλαβε ως εντολή. Δεν υπήρξε επανέλεγχος της απόφασης του συστήματος AI ή των πληροφοριών βάσει των οποίων ελήφθη η απόφαση.

Μέσα από τα μάτια των αξιωματικών πληροφοριών του IDF

Για να κατανοήσουμε την κατάσταση, τα σχόλια των αξιωματικών του IDF που συνεργάστηκαν άμεσα με το σύστημα Lavender έχουν μεγάλη αξία. Οι δηλώσεις τους δίνονται στα +972 και Local Call :

«Στις πέντε το πρωί έφτασε το αεροσκάφος και πραγματοποίησε αεροπορικές επιδρομές σε όλα τα σπίτια που είχαμε σημαδέψει», λέει ο B. «Καταστρέψαμε χιλιάδες ανθρώπους. Δεν δουλέψαμε σε μεμονωμένους στόχους, συμμετείχαν όλα τα αυτοματοποιημένα συστήματα και μόλις ένα από τα [σημασμένα άτομα] βρισκόταν στο σπίτι, έγινε αμέσως στόχος. Βομβαρδίσαμε αυτόν και το σπίτι του».

«Ήμουν πολύ έκπληκτος που μας ζήτησαν να πραγματοποιήσουμε αεροπορική επιδρομή σε ένα σπίτι για να σκοτώσουμε έναν απλό στρατιώτη του οποίου η σημασία στις μάχες ήταν τόσο ασήμαντη», είπε ένας άλλος αξιωματικός του IDF.

Τα αποτελέσματα των εξαιρετικά ασαφών κριτηρίων επιλογής στόχων στα πρώτα στάδια του πολέμου ήταν καταστροφικά. Σύμφωνα με το Παλαιστινιακό Υπουργείο Υγείας στη Γάζα, περίπου 15.000 Παλαιστίνιοι, οι περισσότεροι άμαχοι, σκοτώθηκαν μόνο τον πρώτο ενάμιση μήνα. Σήμερα, λαμβάνοντας υπόψη την ανθρωπιστική καταστροφή, οι νεκροί ανέρχονται σε εκατοντάδες χιλιάδες.

Όσο περισσότερες πληροφορίες και ποικιλία δεδομένων τόσο το καλύτερο για την εκπαιδευτική ανάπτυξη του AI.

Το λογισμικό Lavender αναλύει πληροφορίες που συλλέγονται για τους περισσότερους από τους 2,3 εκατομμύρια κατοίκους της Λωρίδας της Γάζας. Στη συνέχεια, το σύστημα εκτιμά την πιθανότητα κάθε άτομο να είναι ενεργό μέλος της στρατιωτικής πτέρυγας της Χαμάς. Το σύστημα αποδίδει βαθμολογία από 1 έως 100 σε σχεδόν κάθε κάτοικο της Γάζας, υποδεικνύοντας την πιθανότητα να έχει δεσμούς με ένοπλες ομάδες.

Το AI εκπαιδεύεται σε σύνολα δεδομένων για γνωστούς μαχητές της Χαμάς για τους οποίους υπάρχουν ήδη διαθέσιμες πληροφορίες και στη συνέχεια βρίσκει αυτά τα ίδια χαρακτηριστικά στον γενικό πληθυσμό. Ένα άτομο που έχει πολλά διαφορετικά ενοχοποιητικά χαρακτηριστικά λαμβάνει υψηλή βαθμολογία και γίνεται αυτόματα ένας πιθανός στόχος για προσβολή.

Στο βιβλίο Man-Machine Team, ο σημερινός διοικητής της Μονάδας 8200 περιγράφει ακριβώς ένα τέτοιο σύστημα, χωρίς να αναφέρει το όνομα του συστήματος. Ο ίδιος ο διοικητής δεν κατονομάζεται επίσης, αλλά πέντε πηγές στη Μονάδα 8200 επιβεβαίωσαν ότι ο διοικητής τους είναι ο συγγραφέας του βιβλίου, το οποίο αναφέρθηκε επίσης από την εφημερίδα HaaretzΤο κύριο πρόβλημα, σύμφωνα με τον συγγραφέα, είναι η χαμηλή ταχύτητα επεξεργασίας πληροφοριών από το προσωπικό.

Η λύση σε αυτό το πρόβλημα, κατά τη γνώμη του, είναι η AI η τεχνητή νοημοσύνη. Το βιβλίο προσφέρει έναν σύντομο οδηγό για τη δημιουργία ενός συστήματος παρόμοιου στην περιγραφή με το Lavender, βασισμένο σε αλγόριθμους τεχνητής νοημοσύνης και μηχανικής μάθησης. Ο οδηγός περιλαμβάνει πολλά παραδείγματα εκατοντάδων ή χιλιάδων χαρακτηριστικών που μπορούν να αυξήσουν τη βαθμολογία ενός ατόμου, όπως η συμμετοχή σε μια ομάδα WhatsApp με ένα γνωστό μέλος της Hamas ή του PIJ, η αλλαγή κινητών τηλεφώνων κάθε λίγους μήνες και η συχνή αλλαγή διευθύνσεων.

Όσο περισσότερες πληροφορίες και όσο πιο ποικίλες είναι, τόσο το καλύτερο για την εκπαίδευση της AI. Δεδομένα βιντεοεπιτήρησης, πολυφασματικά συστήματα παρακολούθησης του στρατού, δεδομένα κινητής τηλεφωνίας, πληροφορίες από τα κοινωνικά δίκτυα, πληροφορίες για το πεδίο της μάχης, τηλεφωνικές επαφές, φωτογραφίες. Αρχικά, οι άνθρωποι επιλέγουν αυτά τα δεδομένα, συνεχίζει ο διοικητής, αλλά με την πάροδο του χρόνου το σύστημα θα μάθει να τα προσδιορίζει ανεξάρτητα. Αυτό μπορεί να καταστήσει δυνατή τη δημιουργία δεκάδων χιλιάδων στόχων, ενώ η απόφαση για καταστροφή θα παραμείνει στο ανθρώπινο παράγοντα, στο άτομο.

Αυτό το βιβλίο δεν είναι η μόνη φορά που ένας ανώτερος Ισραηλινός στρατιωτικός διοικητής υπαινίσσεται την ύπαρξη γεννητριών στόχων όπως το Lavender. Δημοσιογράφοι από το +972 Magazine και το Local Call έλαβαν μια ηχογράφηση μιας ιδιωτικής διάλεξης από τον διοικητή του μυστικού κέντρου Data Science και AI της μονάδας 8200, “Colonel Yoav“, στην εβδομάδα AI στο Πανεπιστήμιο του Τελ Αβίβ το 2023.

Η διάλεξη μιλά για τη γεννήτρια στόχου που χρησιμοποιείται στο IDF. Το σύστημα εντοπίζει «επικίνδυνους ανθρώπους» με βάση την ομοιότητά τους με τα υπάρχοντα χαρακτηριστικά γνωστών στόχων στους οποίους εκπαιδεύτηκε«Με αυτό το σύστημα, μπορέσαμε να αναγνωρίσουμε τους διοικητές των μονάδων πυραύλων της Χαμάς», λέει ο συνταγματάρχης Yoav στη διάλεξη, αναφερόμενος στην ισραηλινή στρατιωτική επιχείρηση στη Γάζα τον Μάιο του 2021, όταν το σύστημα AI χρησιμοποιήθηκε για πρώτη φορά.

Οι διαφάνειες της διάλεξης επεξηγούν πώς λειτουργεί το σύστημα: του δίνονται δεδομένα για τα σημερινά μέλη της Χαμάς, μαθαίνει να αναγνωρίζει τα χαρακτηριστικά και τα πρότυπα συμπεριφοράς τους και στη συνέχεια αξιολογεί άλλους Παλαιστίνιους με βάση την ομοιότητά τους με αυτά τα αντικείμενα.

«Κατατάσσουμε τα αποτελέσματα και καθορίζουμε το όριο [στο οποίο είναι δυνατή η επίθεση στον στόχο]», είπε ο συνταγματάρχης Yoav στη διάλεξη, τονίζοντας ότι «τελικά οι αποφάσεις λαμβάνονται από ανθρώπους από σάρκα και οστά». «Στην αμυντική βιομηχανία, από ηθική άποψη, δίνουμε μεγάλη σημασία σε αυτό. Αυτά τα εργαλεία έχουν σχεδιαστεί για να βοηθήσουν [τους αξιωματικούς των πληροφοριών] να ξεπεράσουν τα εμπόδια τους».

Ωστόσο, στην πράξη, πηγές που χρησιμοποίησαν το Lavender τους τελευταίους μήνες ισχυρίζονται ότι ο ανθρώπινος έλεγχος και η ακρίβεια έχουν αντικατασταθεί από μαζική παραγωγή στόχων και τεράστιες απώλειες αμάχων.

Δεν υπάρχει κριτήριο σφάλματος «μηδέν».

Στον τρέχοντα πόλεμο, οι αξιωματικοί δεν χρειάζεται να ελέγχουν ανεξάρτητα τα αποτελέσματα του AI. Αυτό είναι απαραίτητο για την εξοικονόμηση χρόνου και τη διασφάλιση της μαζικής δημιουργίας στόχων.

Η έλλειψη εποπτείας σημειώθηκε παρά τους εσωτερικούς ελέγχους που έδειξαν ότι οι υπολογισμοί του Lavender θεωρούνταν ακριβείς μόνο στο 90% των περιπτώσεων. Με άλλα λόγια, ήταν γνωστό εκ των προτέρων ότι τουλάχιστον το 10% των στόχων προς εξάλειψη δεν ήταν μέλη της στρατιωτικής πτέρυγας της Χαμάς.

Το Lavender μερικές φορές επισήμανε εσφαλμένα άτομα που ήταν παρόμοια στα πρότυπα επικοινωνίας και τα πρότυπα συμπεριφοράς με γνωστά μέλη της Χαμάς ή της PIJ. Το σύστημα ταξινόμησε ως επικίνδυνους εργαζόμενους της αστυνομίας και της πολιτικής άμυνας, συγγενείς μελών της Χαμάς, κατοίκους με τα ίδια ονόματα και ψευδώνυμα με μέλη της Χαμάς και πολίτες της Γάζας που χρησιμοποιούσαν μια ψηφιακή συσκευή που κάποτε ανήκε σε μέλος της Χαμάς.

Πόσο κοντά πρέπει να είναι ένα άτομο στη Χαμάς για να τον θεωρήσει το σύστημα AI συνδεδεμένο με τον οργανισμό; Αυτό είναι ένα θολό όριο, ανήκει σε μια γκρίζα περιοχή. Είναι μέλος της Χαμάς ένα άτομο που δεν λαμβάνει μισθό από τη Χαμάς αλλά τους βοηθά σε διάφορα καθήκοντα; Είναι κάποιος που ήταν στη Χαμάς στο παρελθόν αλλά δεν είναι πλέον μέλος της Χαμάς; Κάθε ένα από αυτά τα σημάδια που το σύστημα θα επισήμανε ως ύποπτο είναι ανακριβές.

Παρόμοια προβλήματα υπάρχουν με την ικανότητα των γεννητριών στόχων να προσδιορίζουν το τηλέφωνο που χρησιμοποιείται από το άτομο που στοχεύει να εξαλειφθεί. Κατά τη διάρκεια του πολέμου, οι Παλαιστίνιοι αλλάζουν συνεχώς τηλέφωνα . Οι άνθρωποι χάνουν την επαφή με τις οικογένειές τους, δίνουν το τηλέφωνο σε έναν φίλο ή σύζυγο και μπορεί να το χάσουν. Είναι αδύνατο να βασιστεί κανείς πλήρως σε έναν αυτόματο μηχανισμό που καθορίζει ποιος αριθμός τηλεφώνου ανήκει σε ποιον.

Το IDF κατανοούσε ότι ο ελάχιστος ανθρώπινος έλεγχος δεν θα βοηθούσε στον εντοπισμό αυτών των σφαλμάτων. Επομένως, απλώς εγκατέλειψαν το κριτήριο για «μηδενικό σφάλμα». Τα σφάλματα εξετάστηκαν καθαρά στατιστικά. Λόγω της κλίμακας δημιουργίας στόχων, το άτυπο πρωτόκολλο ήταν ότι ακόμα κι αν δεν γνωρίζετε με βεβαιότητα ότι το AI έλαβε τη σωστή απόφαση, στατιστικά όλα είναι καλά. Αναλάβετε δράση.

Αξίζει να ξοδέψετε τον χρόνο των αξιωματικών πληροφοριών για την επαλήθευση πληροφοριών μόνο εάν ο στόχος είναι ένας ανώτερος διοικητής της Χαμάς. Ως εκ τούτου, το IDF είναι έτοιμο να δεχτεί το λάθος στη χρήση της τεχνητής νοημοσύνης, τον κίνδυνο παράπλευρων απωλειών και τον θάνατο αμάχων.

Ο λόγος για αυτόν τον αυτοματισμό είναι η συνεχής επιθυμία δημιουργίας περισσότερων στόχων προς καταστροφή. Τις ημέρες που δεν υπήρχαν στόχοι υψηλού επιπέδου, γίνονταν επιθέσεις σε στόχους χαμηλότερης προτεραιότητας.

Η εκπαίδευση περιελάμβανε επίσης δεδομένα από υπαλλήλους του Υπουργείου Εσωτερικής Ασφάλειας που διοικείται από τη Χαμάς. Τυπικά, δεν είναι μέλη στρατιωτικών σχηματισμών. Από αυτό το παράδειγμα, είναι σαφές ότι κατά την εκπαίδευση της AI, ο όρος μαχητής της Χαμάς χρησιμοποιήθηκε με μια πολύ χαλαρή και αρκετά διευρυμένη ερμηνεία.

Αυτό αυξάνει την πιθανότητα το Lavender να στοχεύσει κατά λάθος πολίτες όταν οι αλγόριθμοί του εφαρμόζονται στον γενικό πληθυσμό.

Στην πράξη, αυτό σήμαινε ότι για τους αμάχους που επισημάνθηκαν εσφαλμένα από την τεχνητή νοημοσύνη, δεν υπήρχε μηχανισμός εποπτείας για να αντιληφθεί το σφάλμα. Ένα συνηθισμένο λάθος ήταν ο στόχος [μέλος της Χαμάς] να δώσει το τηλέφωνό του στον γιο του, τον μεγαλύτερο αδερφό του ή απλώς σε ένα τυχαίο άτομο. Ανατινάχθηκε στο σπίτι του με την οικογένειά του. Αυτό συνέβαινε συχνά.

Παράμετρος 2: ΣΥΝΔΕΣΗ ΣΤΟΧΩΝ ΜΕ ΣΠΙΤΙΑ ΣΥΓΓΕΝΕΩΝ

Οι περισσότεροι από τους ανθρώπους που σκοτώθηκαν από τις ισραηλινές δυνάμεις ήταν γυναίκες και παιδιά.

Το επόμενο βήμα στη διαδικασία εξάλειψης είναι ο εντοπισμός τοποθεσιών όπου μπορούν να επιτεθούν στόχοι που δημιουργούνται από το Λεβάντ.

Εκπρόσωπος του IDF είπε: «Η Χαμάς τοποθετεί τους μαχητές και τις στρατιωτικές δυνάμεις της στην καρδιά των αμάχων, χρησιμοποιεί συστηματικά τους αμάχους ως ανθρώπινες ασπίδες και μάχεται μέσα από πολιτικές δομές, συμπεριλαμβανομένων κρίσιμων εγκαταστάσεων όπως νοσοκομεία, τζαμιά, σχολεία και ιδρύματα. Ο IDF είναι υποχρεωμένος να σέβεται και να ενεργεί σύμφωνα με το διεθνές δίκαιο επιβάλλοντας μόνο στρατιωτικούς στόχους».

Έξι πηγές, πληροφορίες από τις οποίες αποτέλεσαν τη βάση δημοσιογραφικών ερευνών, το επιβεβαίωσαν στον έναν ή τον άλλο βαθμό. Το εκτεταμένο σύστημα με υπόγειες σήραγγες της Χαμάς βρίσκεται κάτω από νοσοκομεία και σχολεία. Τα μέλη της Χαμάς χρησιμοποιούν ασθενοφόρα για να μετακινηθούν. Οι στρατιωτικές εγκαταστάσεις βρίσκονται δίπλα σε πολιτικά κτίρια. Αρκετοί ισχυρίστηκαν ότι πολλά ισραηλινά χτυπήματα σκοτώνουν αμάχους ως αποτέλεσμα τέτοιων τακτικών της Χαμάς.

Ωστόσο, σε αντίθεση με επίσημες δηλώσεις του ισραηλινού στρατού, πηγές εξήγησαν ότι ένας από τους κύριους λόγους για τον άνευ προηγουμένου αριθμό θυμάτων στον τρέχοντα ισραηλινό βομβαρδισμό είναι το γεγονός ότι οι IDF επιτίθενται συστηματικά σε στόχους σε ιδιωτικές κατοικίες, μαζί με τα μέλη της οικογένειάς τους, γιατί από άποψη τεχνητής νοημοσύνης ήταν ευκολότερο να επισημανθούν τα σπίτια των οικογενειών χρησιμοποιώντας αυτοματοποιημένα συστήματα.

Οι IDF επέλεγαν τακτικά να χτυπούν στόχους ενώ βρίσκονταν σε σπίτια πολιτών όπου δεν γίνονταν μάχες. Η επιλογή αυτή βασίζεται στη χρήση του ισραηλινού συστήματος επιτήρησης στη Γάζα.

Δεδομένου ότι κάθε κάτοικος της Γάζας έχει μια ιδιωτική κατοικία με την οποία μπορεί να συνδεθεί, τα συστήματα επιτήρησης του στρατού μπορούν εύκολα και αυτόματα να συνδέσουν τους ανθρώπους με τα σπίτια τους. Έχουν αναπτυχθεί διάφορα πρόσθετα προγράμματα για τον εντοπισμό πότε οι στόχοι εισέρχονται σε ένα σπίτι σε πραγματικό χρόνο. Αυτά τα προγράμματα παρακολουθούν χιλιάδες άτομα ταυτόχρονα, εντοπίζουν πότε βρίσκονται στο σπίτι και στέλνουν μια αυτόματη ειδοποίηση προώθησης σε έναν αξιωματικό στόχευσης, ο οποίος επισημαίνει το σπίτι για αεροπορική επιδρομή. Ένα τέτοιο πρόγραμμα παρακολούθησης είναι το Where’s daddy; (“Πού είναι ο μπαμπάς;”).

Οι αξιωματικοί του IDF αποκαλούν αυτή τη μέθοδο εργασίας «διευρυμένο κυνήγι». Εκατοντάδες στόχοι εισάγονται στο σύστημα και στη συνέχεια απλώς παρακολουθεί αυτούς που ήταν ή δεν μπόρεσαν να εξαλειφθούν. Οι λίστες στόχων παρέχονται από την AI.

Τον πρώτο μήνα του πολέμου, περισσότεροι από τους μισούς νεκρούς, 6.120 άτομα, ανήκαν σε 1.340 οικογένειες, πολλές από τις οποίες καταστράφηκαν ολοσχερώς στα σπίτια τους. Αυτά είναι επίσημα στοιχεία του ΟΗΕ. Το ποσοστό των οικογενειών που καταστράφηκαν ολοσχερώς στα σπίτια τους στον τρέχοντα πόλεμο είναι πολύ υψηλότερο από ό,τι κατά τη διάρκεια της ισραηλινής επιχείρησης του 2014 στη Γάζα. Παλαιότερα θεωρούνταν αυτός ο πιο θανατηφόρος πόλεμος του Ισραήλ στη Λωρίδα της Γάζας. Φαίνεται ότι ο κάθε επόμενος είναι ο χειρότερος.

Κάθε φορά που ο ρυθμός της καταστροφής επιβραδύνονταν, συστήματα όπως το “Where’s Daddy” πρόσθεταν νέους στόχους για τον εντοπισμό ατόμων που έμπαιναν στα σπίτια τους και κινδύνευαν να εξαλειφθούν. Επιπλέον, η απόφαση για το ποιος θα συμπεριληφθεί στα συστήματα παρακολούθησης θα μπορούσε να ληφθεί από σχετικά χαμηλόβαθμους αξιωματικούς στη στρατιωτική ιεραρχία.

Αποκαλύψεις από μια μονο πηγή: «Μια μέρα, εντελώς μόνος μου, πρόσθεσα περίπου 1.200 νέους στόχους στο σύστημα [παρακολούθησης] επειδή ο αριθμός των επιθέσεων [που πραγματοποιούσαμε] είχε μειωθεί. Εκ των υστέρων, αυτό φαίνεται σαν μια μεγάλη απόφαση που πήρα. Και τέτοιες αποφάσεις δεν ελήφθησαν σε υψηλό επίπεδο».

Τις πρώτες δύο εβδομάδες του πολέμου, σε προγράμματα αναζήτησης όπως «Πού είναι ο μπαμπάς;» συμπεριλήφθηκαν όλα τα μέλη των επίλεκτων ειδικών δυνάμεων της Χαμάς Νούχμπα. Όλα τα πληρώματα αντιαρματικών της Χαμάς, καθώς και όλοι όσοι εισήλθαν στο Ισραήλ στις 7 Οκτωβρίου. Σύντομα όμως ο κατάλογος των στόχων διευρύνθηκε μαζικά.

Σε αυτό συμπεριλήφθηκαν όλα όσα σημάδεψε η “Λεβάντ”. Αυτοί είναι δεκάδες χιλιάδες στόχοι. Όταν οι ισραηλινές ταξιαρχίες μπήκαν στη Γάζα, υπήρχαν ήδη λιγότεροι άμαχοι στις βόρειες περιοχές. Σύμφωνα με την πηγή, ακόμη και κάποιοι ανήλικοι επισημάνθηκαν ως στόχοι από τη Lavender.

Ένα άτομο που μπήκε στο σύστημα βρισκόταν υπό συνεχή παρακολούθηση και θα μπορούσε να καταστραφεί αμέσως μόλις έμπαινε στο σπίτι του. Το αποτέλεσμα ήταν ότι συνήθως υπήρχε ένα μέλος της Χαμάς και 10 πολίτες στο σπίτι. Συνήθως πρόκειται για 10 πολίτες – γυναίκες και παιδιά. Κατά τη δοκιμή των αλγορίθμων του συστήματος, αποδείχθηκε ότι η πλειοψηφία των νεκρών ήταν γυναίκες και παιδιά.

Παράμετρος 3: ΕΠΙΛΟΓΗ ΟΠΛΩΝ

Ευρεία χρήση μη κατευθυνόμενων πυρομαχικών ακριβείας

Αφού το Lavender έχει εντοπίσει έναν στόχο για εξάλειψη και το προσωπικό του στρατού έχει απλώς επαληθεύσει μέσω ενός πολύ πρόχειρου ελέγχου ότι ο στόχος είναι άνδρας, ο στόχος αποστέλλεται για παρακολούθηση. Το πρόγραμμα παρακολούθησης καταγράφει την παρουσία του στόχου στο σπίτι του. Στη συνέχεια, πρέπει να επιλεγούν τα πυρομαχικά που θα χρησιμοποιηθούν.

Μια αναφορά του CNN τον Δεκέμβριο του 2023 σημείωσε ότι οι υπηρεσίες πληροφοριών των ΗΠΑ υπολόγισαν ότι περίπου το 45% των πυρομαχικών που χρησιμοποιούσε η ισραηλινή Πολεμική Αεροπορία στη Γάζα δεν ήταν καθοδηγούμενα με ακρίβεια. Και με μεγάλη πιθανότητα, τα στοιχεία αυτά υποτιμώνται, αφού ο IDF στην αρχή της επιχείρησης επιδίωξε να αδειάσει τις αποθήκες του από παλιά πυρομαχικά με ημερομηνία λήξης. Τέτοια πυρομαχικά προκαλούν περισσότερες παράπλευρες απώλειες από τις κατευθυνόμενες βόμβες.

Τρεις πηγές πληροφοριών του IDF είπαν στο +972 και στο Local Call ότι χρησιμοποιήθηκαν μόνο απλά πυρομαχικά για την εξάλειψη του στρατευμένου προσωπικού και των κατώτερων αξιωματικών που στοχοποιήθηκαν από τη Lavender, προκειμένου να εξοικονομηθούν ακριβότερα όπλα. Το IDF δεν χτυπά με όπλα υψηλής ακρίβειας εάν ο στόχος ζει σε πολυώροφο κτίριο. Για να καταστραφεί ένα πολυώροφο κτίριο, απαιτούνται πιο ακριβή και ισχυρά πυρομαχικά, σχεδιασμένα να χτυπούν πολυώροφα κτίρια. Αλλά εάν ο στόχος βρίσκεται σε ένα χαμηλό κτίριο, το IDF έχει το δικαίωμα να καταστρέψει τον στόχο και όλους όσοι βρίσκονται στο κτίριο με απλά πυρομαχικά.

Παράμετρος 4: ΑΔΕΙΑ ΓΙΑ ΑΠΩΛΕΙΕΣ ΠΟΛΙΤΩΝ

Επίθεση χωρίς να υπολογίζονται οι παράπλευρες ζημιές

Τις πρώτες εβδομάδες του πολέμου, όταν οι επιθέσεις είχαν στόχο τη Χαμάς, επιτρεπόταν να σκοτωθούν έως και 20 πολίτες κοντά σε κάθε στόχο. Υπάρχουν πηγές που υποστηρίζουν ότι τα αιτήματα ήταν “πιο ανθρώπινα”, έως και 15 πολίτες. Αυτά τα κριτήρια εφαρμόστηκαν ευρέως σε όλους τους στόχους ανεξάρτητα από το βαθμό, τη θέση τους στη στρατιωτική ιεραρχία ή την ηλικία τους. Δεν υπήρξαν περιπτώσεις εξέτασης ενός συγκεκριμένου στόχου για τη στάθμιση του στρατιωτικού οφέλους από την καταστροφή του έναντι της παράπλευρης απώλειας σε αμάχους.

Σύμφωνα με τον Α., έναν αξιωματικό επιχειρήσεων καταστροφής στόχων, η Διεύθυνση Διεθνούς Δικαίου του Ισραηλινού Στρατού δεν είχε δώσει ποτέ στο παρελθόν τόσο ευρεία έγκριση για τόσο υψηλό επίπεδο παράπλευρων απωλειών. “Δεν είναι μόνο ότι μπορείς να σκοτώσεις οποιοδήποτε άτομο είναι στρατιώτης της Χαμάς, κάτι που σίγουρα επιτρέπεται και είναι νόμιμο σύμφωνα με το διεθνές δίκαιο. Αλλά το νομικό τμήμα μας λέει ευθέως: Επιτρέπεται να τους σκοτώσετε, μαζί με πολλούς πολίτες”.

Με απλά λόγια, κάθε άτομο που έχει φορέσει στολή της Χαμάς τα τελευταία δύο χρόνια μπορεί να σκοτωθεί μαζί με 15-20 πολίτες (παράπλευρες απώλειες), χωρίς ειδική άδεια.

Ποια είναι τα κριτήρια για τη δολοφονία περισσότερων από 100 αμάχων ως παράπλευρες απώλειες;

Τώρα ο ισραηλινός στρατός δεν ασχολείται πλέον με τη μαζική δημιουργία στόχων για καταστροφή στα σπίτια των αμάχων. Τα περισσότερα σπίτια στη Λωρίδα της Γάζας έχουν ήδη καταστραφεί ή υποστεί ζημιές και σχεδόν ολόκληρος ο πληθυσμός έχει εκτοπιστεί. Αυτές οι συνθήκες επηρέασαν σημαντικά την ικανότητα του AI να δημιουργεί νέους στόχους. Απλώς η σειρά των αντικειμένων και των δεδομένων εισόδου για ανάλυση έχει αλλάξει δραματικά.

Ωστόσο, οι αεροπορικές επιδρομές εναντίον ανώτερων διοικητών της Χαμάς συνεχίζονται και κατά τη διάρκεια αυτών των επιθέσεων ο στρατός επιτρέπει τη “δολοφονία” εκατοντάδων αμάχωνΜια επίσημη πολιτική για την οποία δεν υπάρχει ιστορικό προηγούμενο στο Ισραήλ ή ακόμη και σε πρόσφατες στρατιωτικές επιχειρήσεις των ΗΠΑ.

Σύμφωνα με μια πηγή πληροφοριών του Ισραηλινού Στρατού, τη στιγμή της εκκαθάρισης του διοικητή του τάγματος Shujaya, υπήρχε ξεκάθαρη εικόνα και επίγνωση της κατάστασης ότι περισσότεροι από 100 άμαχοι θα σκοτωθούν ταυτόχρονα. Να θυμίσουμε ότι το πλήγμα στον Wisam Farhat δόθηκε στις 2 Δεκεμβρίου.

Υπήρχαν όμως ακόμη πιο θανατηφόρα χτυπήματα. Στη δολοφονία του Ayman Nofal, διοικητή της Κεντρικής Ταξιαρχίας της Χαμάς στη Γάζα, η ηγεσία του IDF έδωσε την άδεια να σκοτωθούν περίπου 300 άμαχοι και να καταστρέψουν πολλά κτίρια κατά τη διάρκεια αεροπορικών επιδρομών στον προσφυγικό καταυλισμό Al-Breij στις 17 Οκτωβρίου. Όμως τα προγράμματα παρακολούθησης δεν μπορούσαν να προσδιορίσουν με ακρίβεια τη θέση του στόχου και το μαζικό χτύπημα πραγματοποιήθηκε απλώς σε μια κατοικημένη περιοχή. Το μέγεθος της καταστροφής είναι ορατό σε βίντεο και ακόμη και από δορυφόρους. Από 16 έως 18 πολυώροφα κτίρια καταστράφηκαν μαζί με τους κατοίκους τους. Η ταυτοποίηση ορισμένων από τους νεκρούς είναι αδύνατη λόγω των ερειπίων. Το χτύπημα σκότωσε τον Ayman Nofal και περισσότερα από 300 άτομα που δεν γνώριζαν καν για την ύπαρξή του. Περισσότερα από 200 άτομα τραυματίστηκαν.

Στα μέσα Δεκεμβρίουο Ισραηλινός Στρατός κατέστρεψε ένα πολυώροφο κτίριο στη Ράφα, σκοτώνοντας δεκάδες αμάχους, σε μια προσπάθεια να σκοτώσει τον Μοχάμεντ Σαμπανέχ, διοικητή της ταξιαρχίας της Χαμάς στη Ράφα. Δεν υπάρχουν αξιόπιστες πληροφορίες μέχρι σήμερα για το εάν τελικά χτυπήθηκε ο στόχος.

Αυτή η προσέγγιση για τη διεξαγωγή πολεμικών επιχειρήσεων από το IDF δείχνει ότι τα κριτήρια για την αποτελεσματικότητά τους αναθεωρούνται ριζικά. Ο κανόνας είναι η καταστροφή στόχων με παράπλευρες απώλειες που υπολογίζονται σε διψήφιο ή και τριψήφιο αριθμό.

Πώς ήταν μόλις πριν από λίγα χρόνια;

Ένα τόσο υψηλό ποσοστό παράπλευρων απωλειών είναι εξαιρετικό όχι μόνο για στρατιωτικές συγκρούσεις στις οποίες έχει συμμετάσχει προηγουμένως ο IDF, αλλά και σε σύγκριση με επιχειρήσεις που διεξάγουν οι Ηνωμένες Πολιτείες στο Ιράκ, τη Συρία και το Αφγανιστάν.

Ο στρατηγός Peter Gersten, αναπληρωτής διοικητής επιχειρήσεων και πληροφοριών στην επιχείρηση κατά του ISIS στο Ιράκ και τη Συρία, είπε σε αμερικανικό αμυντικό περιοδικό το 2021 ότι η επίθεση, με παράπλευρες απώλειες 15 αμάχων, απορρίφθηκε. Για να το πραγματοποιήσει, θα ήταν απαραίτητο να ληφθεί ειδική άδεια από τον αρχηγό της Κεντρικής Διοίκησης των ΗΠΑ, Στρατηγό Λόιντ Όστιν, ο οποίος είναι τώρα Υπουργός Άμυνας.

“Αν ήταν ο Οσάμα Μπιν Λάντεν, θα έπαιρνες NCV (Αξία απωλειών για μη πολεμιστές) 30, αλλά αν ο στόχος σου ήταν ένας διοικητής χαμηλού επιπέδου, το NCV του θα ήταν συνήθως μηδέν. Εδώ και καιρό είμαστε στο μηδέν”, λέει ο Γκέρστεν

Πώς λειτουργεί τώρα το IDF;

Όλες οι πηγές πληροφοριών του Ισραηλινού Στρατού ανέφεραν ότι η σφαγή της Χαμάς στις 7 Οκτωβρίου και η απαγωγή ομήρων επηρέασαν σε μεγάλο βαθμό την προσέγγιση πυρών και το επίπεδο των παράπλευρων απωλειών. Στην αρχή της επιχείρησης οι κανόνες ήταν πολύ ασαφείς. Μερικές φορές τέσσερα κτίρια καταστρέφονταν εάν το σύστημα καθόριζε ότι υπήρχε μεγάλη πιθανότητα ο στόχος να βρίσκεται σε ένα από αυτά.

Υπήρχε παραφωνίαΑπό τη μια πλευρά, το στρατιωτικό προσωπικό των IDF ήταν γενικά απογοητευμένο από την έλλειψη έντασης των επιθέσεων. Από την άλλη, η τεχνητή νοημοσύνη έβλεπε χιλιάδες νεκρούς στο τέλος κάθε μέρας. Οι περισσότεροι από τους οποίους είναι πολίτες. Η αντίδραση της ηγεσίας του IDF στο αρχικό στάδιο καθορίστηκε σε μεγάλο βαθμό από συναισθηματικό υπόβαθρο. Δεν υπήρχε σαφής κατανόηση του τι έπρεπε να γίνει, αλλά υπήρχε η επιθυμία να πραγματοποιηθούν εντατικές αεροπορικές επιδρομές προκειμένου να μειωθούν αποτελεσματικά οι στρατιωτικές δυνατότητες της Χαμάς. Αυτό οδήγησε στην έγκριση σχεδόν οποιασδήποτε παράπλευρης απώλειας, την οποία ορισμένοι ανώτεροι αξιωματικοί του IDF εξέφρασαν ως: “Βομβαρδίστε ό,τι μπορείτε.” Αν οι κανόνες όμως είναι τόσο ασαφείς, χάνουν κάθε νόημα τους.

Ήταν η έλλειψη σαφών κριτηρίων για τη διεξαγωγή πολεμικών επιχειρήσεων και οι δυσανάλογες απώλειες αμάχων που ώθησαν αρκετούς αξιωματικούς του IDF να εκφράσουν τις απόψεις τους στους δημοσιογράφους. Η οποία ήταν η βάση για τα υλικά των +972 και Local Call. Το κίνητρο αυτών των αξιωματικών είναι ξεκάθαρο. Πιστεύουν ότι η μορφή της επιχείρησης στη Γάζα μπορεί να παρέχει ασφάλεια στο Ισραήλ βραχυπρόθεσμα, αλλά το εκθέτει σε στρατηγικό κίνδυνο μακροπρόθεσμαΟι υπερβολικές απώλειες αμάχων αυξάνουν αυτόματα τη βάση στρατολόγησης της Χαμάς κατά τάξεις μεγέθους, κάτι που θα έχει σοβαρές συνέπειες σε ορίζοντα 5-10 ετών ή περισσότερο.

Παράμετρος 5: ΜΕΘΟΔΟΛΟΓΙΑ ΑΞΙΟΛΟΓΗΣΗΣ ΑΠΩΛΕΙΩΝ

Περιορισμοί των μοντέλων AI

Όπως φαίνεται, η ακρίβεια δεν είναι ακόμα ένα ισχυρό σημείο των συστημάτων AI. Αυτό επιβεβαιώνεται από την ως τώρα καταγραφή της δράσης τους.

Τον Οκτώβριο του 2023, οι New York Times δημοσίευσαν μια αναφορά σχετικά με ένα σύστημα που ελέγχεται από μια στρατιωτική βάση στο νότιο Ισραήλ. Το σύστημα συλλέγει πληροφορίες από κινητά τηλέφωνα στη Λωρίδα της Γάζας και παρέχει στον στρατό μια γρήγορη εκτίμηση του αριθμού των Παλαιστινίων που έχουν εγκαταλείψει τη βόρεια Λωρίδα της Γάζας προς τα νότια. Ο ταξίαρχος Oudi Ben Mucha είπε στους Times: «Δεν είναι ένα 100% τέλειο σύστημα, αλλά μας δίνει τις πληροφορίες που χρειαζόμαστε για να πάρουμε μια απόφαση. Στο σύστημα, οι περιοχές με πολύ κόσμο σημειώνονται με κόκκινο χρώμα και οι περιοχές με λίγους κατοίκους σημειώνονται με πράσινο και κίτρινο».

Αυτή η ανακριβής και αρκετά απλή τεχνική έγινε η βάση για τον υπολογισμό των παράπλευρων απωλειών, η οποία χρησιμοποιήθηκε για να αποφασίσουν εάν θα ξεκινήσουν αεροπορικές επιδρομές στη Γάζα. Το πρόγραμμα υπολόγισε τον αριθμό των αμάχων που ζούσαν σε κάθε σπίτι πριν από την έναρξη του πολέμου, υπολογίζοντας το μέγεθος του κτιρίου και μελετώντας τον κατάλογο των κατοίκων του. Αυτά τα στοιχεία στη συνέχεια προσαρμόστηκαν με βάση το εκτιμώμενο ποσοστό των κατοίκων που φέρεται να εκκένωσαν την περιοχή.

Για παράδειγμα, αν ο IDF υποθέσει ότι οι μισοί κάτοικοι μιας περιοχής είχαν φύγει, αυτά τα δεδομένα εισήχθησαν στο σύστημα. Το πρόγραμμα υπολόγιζε ένα σπίτι που φιλοξενούσε συνήθως 10 άτομα ως ένα σπίτι που συνήθως φιλοξενούσε πέντε άτομα. Με βάση αυτά τα δεδομένα, πραγματοποιήθηκαν χτυπήματα και γράφτηκαν κατά προσέγγιση αναφορές για απώλειες αμάχων. Για εξοικονόμηση χρόνου, ο Στρατός δεν επιθεώρησε τα σπίτια ούτε έλεγξε πόσα άτομα ζούσαν πραγματικά εκεί, όπως είχε κάνει σε προηγούμενες επιχειρήσεις, για να διασφαλίσει την ακρίβεια των εκτιμήσεων του προγράμματος.

Γενικά, το σύστημα εκτίμησης παράπλευρων απωλειών του IDF είναι πλέον ένα μάλλον αφηρημένο μοντέλο, που δεν σχετίζεται με την πραγματικότητα . Ωστόσο, έχει γίνει αποδεκτό σε όλα τα επίπεδα, επειδή είναι γρήγορο στην αξιολόγηση των απωλειών, πλήρως αυτοματοποιημένο και βασίζεται σε στατιστικά δεδομένα και όχι σε δεδομένα απευθείας από τη ζώνη σύγκρουσης.

Παράμετρος 6: ΚΑΤΑΣΤΡΟΦΗ ΟΙΚΟΓΕΝΕΙΩΝ ΜΑΖΙ ΜΕ ΣΠΙΤΙΑ

Υπήρχε συχνά μια σημαντική υστέρηση μεταξύ των συστημάτων παρακολούθησης χρόνου, όπως το «Πού είναι ο μπαμπάς;» που ειδοποίησε τον αξιωματικό στόχευσης ότι ένας στόχος είχε μπει στο σπίτι του και την πραγματική εμπλοκή του στόχου. Εξαιτίας αυτής της καθυστέρησης, ολόκληρες οικογένειες σκοτώθηκαν μερικές φορές χωρίς να εξαλειφθεί ο στόχος. Έγινε μια κατάσταση ρουτίνας κατά την οποία χτυπήθηκε ένα σπίτι όπου δεν υπήρχε στόχος. Ως αποτέλεσμα, οικογένειες πέθαναν χωρίς αιτία.

Αυτό οφείλεται στο γεγονός ότι η πρόσθετη επαλήθευση συχνά δεν πραγματοποιούνταν σε πραγματικό χρόνο.

Μερικές φορές (ο στόχος) ήταν στο σπίτι και μετά το βράδυ μετακινούνταν σε άλλο μέρος, ας πούμε, υπόγεια. Εάν δεν ληφθούν πληροφορίες σχετικά με αυτό, λαμβάνεται απλώς απόφαση να πραγματοποιηθεί αεροπορική επιδρομή στο σπίτι.

Μια πηγή εξιστόρησε ένα παρόμοιο περιστατικό: «Συνειδητοποιήσαμε ότι ο στόχος ήταν στο σπίτι στις 8 μ.μ. Η Πολεμική Αεροπορία κατέληξε να βομβαρδίζει το σπίτι στις 3 τα ξημερώματα. Μετά μάθαμε ότι σε αυτό το διάστημα κατάφερε να μετακομίσει σε άλλο σπίτι με την οικογένειά του. Υπήρχαν άλλες δύο οικογένειες με παιδιά στο κτίριο που βομβαρδίσαμε».

Κατά τη διάρκεια προηγούμενων πολέμων στη Γάζα, μετά την καταστροφή στόχων, οι ισραηλινές μυστικές υπηρεσίες πραγματοποιούσαν μια διαδικασία εκτίμησης ζημιών από βομβαρδισμούς (BDA). Αυτό ήταν απαραίτητο για να μάθουν αν ο ανώτερος διοικητής σκοτώθηκε και πόσοι πολίτες πέθαναν μαζί του. Ο έλεγχος περιελάμβανε ακρόαση τηλεφωνικών συνομιλιών συγγενών που είχαν χάσει τα αγαπημένα τους πρόσωπα. Ωστόσο, για τους βαθμοφόρους και τους χαμηλού επιπέδου αξιωματικούς της Χαμάς που στοχοποιούνται από την AI, αυτή η διαδικασία έχει πλέον εξαλειφθεί για εξοικονόμηση χρόνου. Αυτή τη στιγμή, το IDF δεν έχει ακριβή στοιχεία για το πόσοι άμαχοι σκοτώθηκαν σε κάθε επίθεση. Συχνά δεν υπάρχουν πληροφορίες για το εάν ο ίδιος ο στόχος καταστράφηκε.

Στην τρέχουσα σύγκρουση, μόνο όταν εμπλέκονται ανώτερα μέλη της Χαμάς εφαρμόζεται η διαδικασία BDA. Σε άλλες περιπτώσεις, οι υπηρεσίες πληροφοριών λαμβάνουν μια αναφορά από την Πολεμική Αεροπορία για το αν το κτίριο καταστράφηκε, και τέλος. Δεν υπάρχει χρόνος για να εκτιμηθεί το μέγεθος της παράπλευρης απώλειας. Πρέπει να προχωρήσουν αμέσως στον επόμενο στόχο. Η έμφαση των αυτοματοποιημένων συστημάτων ήταν να δημιουργηθούν όσο το δυνατόν περισσότεροι στόχοι, όσο το δυνατόν γρηγορότερα.

Συμπερασματικά

Το παραπάνω υλικό είναι εντυπωσιακό λόγω της πληθώρας πληροφοριών απευθείας από αξιωματικούς των ισραηλινών μυστικών υπηρεσιών. Αυτό δεν είναι τυχαίο. Ορισμένοι αξιωματικοί του IDF είναι όντως πολύ έκπληκτοι από τις τεράστιες απώλειες μεταξύ αμάχων στη Γάζα. Αλλά δεν μπορούμε να αποκλείσουμε το ενδεχόμενο μιας σκόπιμης διαρροής, την οποία η ηγεσία του IDF χρησιμοποιεί ως έναν απλό και προσιτό τρόπο για να μεταφέρει τη θέση της στις περιφερειακές δυνάμεις. Μιλάμε πρωτίστως για το Ιράν, τις μοναρχίες του Περσικού Κόλπου και τις χώρες του Μαγκρέμπ (Βόρεια Αφρική). Το μήνυμα  ειναι απλο και σαφές. Το IDF έχει ένα αρκετά αποτελεσματικό σύστημα ικανό να καταστρέψει μια λίστα με 50.000 – 100.000 στόχους μέσα σε 1-2-3 εβδομάδες. Εάν θεωρείτε αυτή τη ζημιά απαράδεκτη, είναι απαραίτητο να διαπραγματευτείτε με τους ισραηλινούς όρους. Όχι μόνο η υπερορθόδοξη κυβέρνηση, αλλά και η αμερικανική κυβέρνηση ενδιαφέρεται εξαιρετικά για μια τέτοια διατύπωση του θέματος.

Η Λωρίδα της Γάζας καθώς και η Ουκρανία αποτελούν αμφότερες πλέον πεδίο δοκιμών τεχνολογιών που μπορούν να δώσουν στην επιτιθέμενη πλευρά ένα πλεονέκτημα συγκρίσιμο με τη χρήση πυρηνικών ή χημικών όπλων, αλλά χωρίς αρνητικές και μόνιμες συνέπειες.

Η χρήση τέτοιων όπλων θέτει υπό αμφισβήτηση ολόκληρη την έννοια της πυρηνικής αποτροπής. Οι αντίπαλοί βασίζονται στο γεγονός ότι τα πυρηνικά όπλα μπορούν να χρησιμοποιηθούν μόνο ως απάντηση στο χτύπημα τους. Δεν θα υπάρξει πυρηνική επίθεση από αυτούς. Στο μέλλον θα χρησιμοποιηθεί το πλήρες φάσμα των συστημάτων που βασίζονται σε AI.

Με βάση αυτό, η συγκρότηση του διεθνούς δικαίου καθίσταται αναποτελεσματικήΟι κανόνες των διεθνών σχέσεων αλλάζουν δυναμικά, γίνονται ασαφείς και καταλήγουν στην ικανότητα του κατά πόσο αντέχεις τα σύγχρονα οπλικά συστήματα.

Όλες οι συμφωνίες που βασίζονται στο διεθνές δίκαιο χάνουν κάθε νόημα και θα χρησιμοποιηθούν από τον κάθε εχθρό μόνο για να αποκτήσουν ένα κρίσιμο πλεονέκτημα σε νέους τύπους όπλων.

Ταυτόχρονα, ο περιορισμένος αριθμός, το χαμηλό επίπεδο εκπαίδευσης και τα κίνητρα του προσωπικού των χωρών της συλλογικής Δύσης αναγνωρίζεται από τη διοίκηση της συλλογικής Δύσης ως αντικειμενική πραγματικότηταΗ λύση βρίσκεται σε εξέλιξη για την αντιστάθμιση αυτών των ελλείψεων μέσω αυτοματοποιημένων συστημάτων, συμπεριλαμβανομένων αυτών που βασίζονται στην τεχνητή νοημοσύνη.

Οι στρατιωτικές επιχειρήσεις του μέλλοντος θα βασίζονται στον πόλεμο των αλγορίθμων της τεχνητής νοημοσύνης, στην αναζήτηση τρωτών σημείων στα συστήματα ανάλυσης πληροφοριών και στον αυτοματοποιημένο έλεγχο μάχης. Αυτό πρέπει να λαμβάνεται υπόψη κατά τη δημιουργία νέων τύπων όπλων.

Η ενοποίηση συστημάτων ανάλυσης, παρακολούθησης και προσδιορισμού στόχων που βασίζονται σε τεχνητή νοημοσύνη στη Γάζα δοκιμάζεται τώρα εναντίον ενός εχθρού που δεν διαθέτει σοβαρά συστήματα αεράμυνας. Ουσιαστικά, το IDF απλώς ξεφορτώνει παλιές αποθήκες στα κεφάλια των Παλαιστινίων και χρησιμοποιεί την κατάσταση για να εκπαιδεύσει τα μοντέλα τεχνητής νοημοσύνης του. Στο μέλλον, τίποτα δεν εμποδίζει κανέναν να ενσωματώσει το ίδιο σύστημα ανάλυσης, παρακολούθησης και προσδιορισμού στόχων με drones FPV, σοβαρά πυραυλικά όπλα κ.λπ. Και παρόμοια συστήματα είναι πιθανό να εμφανιστούν εκτός Ισραήλ.

Ακολουθήστε το newsbreak.gr στο Google News και μάθετε πρώτοι όλες τις τελευταίες & σημαντικές ειδήσεις.

Ακολουθήστε το newsbreak.gr στο κανάλι μας στο YouTube για να είστε πάντα ενημερωμένοι.

Ακολουθήστε το newsbreak.gr στο κανάλι μας στο Viber για να είστε πάντα ενημερωμένοι.

Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο newsbreak.gr

Tο newsbreak.gr δημοσιεύει κάθε σχόλιο το οποίο είναι σχετικό με το θέμα στο οποίο αναφέρεται το άρθρο. Ο καθένας έχει το δικαίωμα να εκφράζει ελεύθερα τις απόψεις του. Ωστόσο, αυτό δε σημαίνει ότι υιοθετούμε τις απόψεις αυτές και διατηρούμε το δικαίωμα να μην δημοσιεύουμε συκοφαντικά ή υβριστικά σχόλια όπου τα εντοπίζουμε. Σε κάθε περίπτωση ο καθένας φέρει την ευθύνη των όσων γράφει και το newsbreak.gr ουδεμία νομική ή άλλη ευθύνη φέρει.

ΠΡΟΣΘΗΚΗ ΣΧΟΛΙΟΥ

εισάγετε το σχόλιό σας!
Πληκτρολογήστε το όνομα σας

Περισσότερα Βίντεο

Latest News

Διαβάζονται τώρα

More Articles Like This