Σελίδες

Πέμπτη 4 Απριλίου 2024

Ο ισραηλινός στρατός, χρησιμοποιεί ένα σύστημα τεχνητής νοημοσύνης το Lavender, που εντοπίζει “πιθανούς στόχους” στα σπίτια τους με τις οικογενειές τους!

Το 2021, ένα βιβλίο με τίτλο «The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolution Our World» κυκλοφόρησε στα αγγλικά με το ψευδώνυμο «Brigadier General YS» Σε αυτό, ο συγγραφέας και τρέχων διοικητής της επίλεκτης ισραηλινής μονάδας πληροφοριών 8200 — υποστηρίζει τη σχεδίαση μιας ειδικής μηχανής που θα μπορούσε να επεξεργάζεται γρήγορα τεράστιες ποσότητες δεδομένων για να δημιουργήσει χιλιάδες πιθανούς «στόχους» για στρατιωτικά χτυπήματα. Μια τέτοια τεχνολογία, γράφει, θα έλυνε αυτό που περιέγραψε ως «ανθρώπινο εμπόδιο τόσο για τον εντοπισμό των νέων στόχων όσο και για τη λήψη αποφάσεων για την έγκριση των στόχων».

Ένα τέτοιο μηχάνημα, αποδεικνύεται, πως υπάρχει στην πραγματικότητα. Μια έρευνα από το +972 Magazine and Local Call αποκαλύπτει ότι ο ισραηλινός στρατός έχει αναπτύξει ένα πρόγραμμα που βασίζεται στην τεχνητή νοημοσύνη. Σύμφωνα με έξι ισραηλινούς αξιωματικούς πληροφοριών, οι οποίοι έχουν υπηρετήσει στο στρατό κατά τη διάρκεια του τρέχοντος πολέμου στη Λωρίδα της Γάζας, είχαν από πρώτο χέρι εμπλοκή με τη χρήση της τεχνητής νοημοσύνης για τη δημιουργία στόχων, ειδικά κατά τα

πρώτα στάδια του πολέμου. Στην πραγματικότητα, σύμφωνα με τις πηγές, η επιρροή του στις επιχειρήσεις του στρατού ήταν τέτοια που ουσιαστικά αντιμετώπιζαν τα αποτελέσματα της μηχανής AI «σαν να ήταν μια ανθρώπινη απόφαση».

Το σύστημα Lavender (λεβάντα) όπως ονομάζεται, έχει σχεδιαστεί για να επισημαίνει όλους τους ύποπτους στις στρατιωτικές πτέρυγες της Χαμάς και της Παλαιστινιακής Ισλαμικής Τζιχάντ (PIJ), συμπεριλαμβανομένων των χαμηλόβαθμων, ως πιθανούς στόχους βομβαρδισμών. Οι πηγές είπαν στο +972 και στο Local Call ότι, κατά τις πρώτες εβδομάδες του πολέμου, ο στρατός βασίστηκε σχεδόν εξ ολοκλήρου στο Lavender, το οποίο μέτρησε έως και 37.000 Παλαιστίνιους ως ύποπτους μαχητές – και τα σπίτια τους – ως πιθανούς στόχους.

Κατά τα πρώτα στάδια του πολέμου, ο στρατός έδωσε έγκριση στους αξιωματικούς να υιοθετήσουν τις λίστες δολοφονιών του Lavender, χωρίς να απαιτείται να εξετάσουν τα ακατέργαστα δεδομένα πληροφοριών στα οποία βασίστηκαν. Μια πηγή ανέφερε ότι το ανθρώπινο προσωπικό συχνά χρησίμευε μόνο ως «μέσο» για τις αποφάσεις της μηχανής, που σημαίνει πως αφιέρωναν προσωπικά μόνο «20 δευτερόλεπτα» για κάθε στόχο πριν το εγκρίνουν. Αυτό συνέβη παρά το γεγονός ότι το σύστημα κάνει «λάθη» σε περίπου 10 τοις εκατό των περιπτώσεων, και είναι γνωστό ότι περιστασιακά επισημαίνει άτομα που έχουν απλώς μια χαλαρή σχέση με μαχητικές ομάδες ή καμία σχέση.

Το σοκαριστικό όμως, είναι πως ο ισραηλινός στρατός επιτέθηκε σε αυτά τα άτομα ενώ βρίσκονταν στα σπίτια τους – συνήθως τη νύχτα ενώ ήταν μαζί με τις οικογένειές τους. Πρόσθετα αυτοματοποιημένα συστήματα, συμπεριλαμβανομένου ενός που ονομάζεται “Where’s Daddy?” που επίσης αποκαλύφθηκε εδώ για πρώτη φορά, χρησιμοποιήθηκαν ειδικά για τον εντοπισμό των στοχευόμενων ατόμων και τη διεξαγωγή βομβαρδισμών όταν είχαν εισέλθει στις κατοικίες με τις οικογένειες τους.

Το αποτέλεσμα, όπως κατέθεσαν οι πηγές, είναι ότι χιλιάδες Παλαιστίνιοι —οι περισσότεροι από αυτούς γυναίκες και παιδιά ή άνθρωποι που δεν συμμετείχαν στις μάχες— εξοντώθηκαν από ισραηλινές αεροπορικές επιδρομές, ειδικά κατά τις πρώτες εβδομάδες του πολέμου.

«Δεν μας ενδιέφερε να σκοτώνουμε στελέχη της [Χαμάς] όταν βρίσκονταν σε στρατιωτικό κτίριο ή συμμετείχαν σε στρατιωτική δραστηριότητα», είπε ο Α., αξιωματικός των πληροφοριών, στο +972 και στο Local Call. «Αντίθετα, οι IDF τους βομβάρδισαν σε σπίτια χωρίς δισταγμό, ως πρώτη επιλογή. Είναι πολύ πιο εύκολο να βομβαρδίσεις το σπίτι μιας οικογένειας. Το σύστημα είναι φτιαγμένο για να τα αναζητά αυτές τις καταστάσεις».

Η μηχανή Lavender ενώνεται με ένα άλλο σύστημα τεχνητής νοημοσύνης, το «The Gospel», για το οποίο αποκαλύφθηκαν πληροφορίες σε προηγούμενη έρευνα από το +972 και το Local Call τον Νοέμβριο του 2023, καθώς και σε δημοσιεύσεις του ίδιου του ισραηλινού στρατού. Η θεμελιώδης διαφορά μεταξύ των δύο συστημάτων έγκειται στον ορισμό του στόχου: ενώ το “Ευαγγέλιο” σηματοδοτεί κτίρια και εγκαταστάσεις από τις οποίες ο στρατός ισχυρίζεται ότι ενεργούν μαχητές της Χαμάς, το Lavender στοχεύει ανθρώπους – και τους βάζει σε λίστα θανάτων. 

Επιπλέον, σύμφωνα με τις πηγές, όταν επρόκειτο για τη στόχευση υποτιθέμενων κατώτερων μαχητών που σημαδεύονταν από το Lavender, ο στρατός προτίμησε να χρησιμοποιεί μόνο μη κατευθυνόμενους πυραύλους, κοινώς γνωστούς ως «χαζές» βόμβες (σε αντίθεση με τις «έξυπνες» βόμβες ακριβείας), οι οποίοι μπορούν να καταστρέψουν ολόκληρα κτίρια πάνω από τους ενοίκους τους και προκαλούν σημαντικές απώλειες. Ο λόγος που γίνεται αυτό είναι επειδή «Δεν θέλουν να σπαταλήσουν ακριβές βόμβες για ασήμαντους ανθρώπους», είπε ο C., ένας από τους αξιωματικούς των μυστικών υπηρεσιών. Μια άλλη πηγή είπε ότι είχαν εγκρίνει προσωπικά τους βομβαρδισμούς σε «εκατοντάδες» ιδιωτικές κατοικίες υποτιθέμενων κατώτερων στελεχών που σημαδεύονταν από την Lavender, με πολλές από αυτές τις επιθέσεις να σκοτώνουν αμάχους και ολόκληρες οικογένειες ως «παράπλευρες απώλειες».

Σε μια άνευ προηγουμένου κίνηση, σύμφωνα με δύο από τις πηγές, ο στρατός αποφάσισε κατά τις πρώτες εβδομάδες του πολέμου ότι, για κάθε κατώτερο στέλεχος της Χαμάς που σημάδεψε το Lavender, ήταν επιτρεπτό να έχουν έως και 15 ή 20 «παράπλευρες απώλειες» ζωών. Στο παρελθόν, ο στρατός δεν επέτρεπε καμία «παράπλευρες απώλεια» κατά τη διάρκεια δολοφονιών χαμηλών μαχητών. Οι πηγές πρόσθεσαν ότι, σε περίπτωση που ο στόχος ήταν ένας ανώτερος αξιωματούχος της Χαμάς με τον βαθμό του διοικητή τάγματος ή ταξιαρχίας, ο στρατός επέτρεπε τη δολοφονία περισσότερων από 100 αμάχων ή «παράπλευρων απώλειων».

Τα φρικτά αποτελέσματα αυτής της ΑΙ μηχανής, είναι με κάθε επιφύλαξη:

Πηγή https://www.972mag.com/lavender-ai-israeli-army-gaza/

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου