Δευτέρα, 15 Δεκεμβρίου 2025

Τρομοκρατικές οργανώσεις και τεχνητή νοημοσύνη: Πώς την αξιοποιούν οι εξτρεμιστικές ομάδες

Καθώς ο υπόλοιπος κόσμος σπεύδει να αξιοποιήσει τις δυνατότητες της τεχνητής νοημοσύνης, εξτρεμιστικές και ένοπλες οργανώσεις πειραματίζονται επίσης με την τεχνολογία, ακόμη κι αν δεν είναι απόλυτα σαφές πώς ακριβώς θα τη χρησιμοποιήσουν.

Σύμφωνα με ειδικούς εθνικής ασφάλειας και μυστικές υπηρεσίες, η τεχνητή νοημοσύνη θα μπορούσε να αποτελέσει ισχυρό εργαλείο για την προσέλκυση νέων μελών, τη δημιουργία ρεαλιστικών deepfake εικόνων και τη βελτίωση κυβερνοεπιθέσεων από τρομοκρατικές οργανώσεις.

Εκκλήσεις του ISIS για χρήση τεχνητής νοημοσύνης

Τον περασμένο μήνα, χρήστης σε φιλοϊσλαμιστικό φόρουμ που συνδέεται με το Ισλαμικό Κράτος (ISIS) προέτρεψε υποστηρικτές της οργάνωσης να εντάξουν την τεχνητή νοημοσύνη στις επιχειρήσεις τους.

«Ένα από τα καλύτερα χαρακτηριστικά της τεχνητής νοημοσύνης είναι πόσο εύκολη είναι στη χρήση», έγραψε στα αγγλικά, προσθέτοντας: «Ορισμένες υπηρεσίες πληροφοριών ανησυχούν ότι η AI θα συμβάλει στη στρατολόγηση. Κάντε τους εφιάλτες τους πραγματικότητα».

Το ISIS, που στο παρελθόν είχε καταλάβει εδάφη στο Ιράκ και τη Συρία και σήμερα λειτουργεί ως αποκεντρωμένο δίκτυο ένοπλων ομάδων, είχε αναγνωρίσει από νωρίς τη δύναμη των μέσων κοινωνικής δικτύωσης για στρατολόγηση και παραπληροφόρηση. Σύμφωνα με αναλυτές, δεν προκαλεί έκπληξη το γεγονός ότι πλέον δοκιμάζει και την τεχνητή νοημοσύνη.

Προπαγάνδα και deepfakes με χαμηλό κόστος

Για τις πιο χαλαρά οργανωμένες και με περιορισμένους πόρους εξτρεμιστικές ομάδες – ή ακόμη και για μεμονωμένους «μοναχικούς λύκους» με πρόσβαση στο διαδίκτυο – η AI μπορεί να χρησιμοποιηθεί για μαζική παραγωγή προπαγάνδας και deepfake περιεχομένου, διευρύνοντας την απήχησή τους.

«Για κάθε αντίπαλο, η τεχνητή νοημοσύνη κάνει τα πάντα πολύ πιο εύκολα», δήλωσε ο Τζον Λαλιμπέρτ, πρώην ερευνητής της NSA και νυν CEO της εταιρείας κυβερνοασφάλειας ClearVector. «Ακόμη και μικρές ομάδες χωρίς μεγάλα οικονομικά μέσα μπορούν να προκαλέσουν σημαντικό αντίκτυπο».

Πώς πειραματίζονται οι εξτρεμιστικές ομάδες με την AI

Οι ένοπλες οργανώσεις άρχισαν να χρησιμοποιούν τεχνητή νοημοσύνη σχεδόν αμέσως μετά τη δημόσια διάδοση εργαλείων όπως το ChatGPT. Τα τελευταία χρόνια αξιοποιούν γενετική τεχνητή νοημοσύνη για τη δημιουργία ρεαλιστικών φωτογραφιών και βίντεο.

Σε συνδυασμό με αλγορίθμους κοινωνικών δικτύων, το ψεύτικο αυτό περιεχόμενο μπορεί να συμβάλει στη στρατολόγηση, να προκαλέσει σύγχυση ή φόβο και να διαδώσει προπαγάνδα σε πρωτοφανή κλίμακα.

Πριν από δύο χρόνια, κυκλοφόρησαν ψεύτικες εικόνες από τον πόλεμο Ισραήλ–Χαμάς που απεικόνιζαν τραυματισμένα βρέφη σε βομβαρδισμένα κτίρια. Το περιεχόμενο αυτό προκάλεσε οργή και πόλωση, ενώ χρησιμοποιήθηκε από βίαιες ομάδες στη Μέση Ανατολή και αντισημιτικές οργανώσεις στις ΗΠΑ και αλλού για στρατολόγηση.

Αντίστοιχα, μετά την επίθεση σε συναυλιακό χώρο στη Ρωσία το 2024, που στοίχισε τη ζωή σε σχεδόν 140 ανθρώπους και αποδόθηκε σε παρακλάδι του ISIS, κυκλοφόρησαν μαζικά βίντεο προπαγάνδας που είχαν δημιουργηθεί με τεχνητή νοημοσύνη.

Σύμφωνα με το SITE Intelligence Group, το ISIS έχει δημιουργήσει deepfake ηχητικά αρχεία με φωνές ηγετικών στελεχών που απαγγέλλουν θρησκευτικά κείμενα, ενώ χρησιμοποιεί AI για ταχύτατη μετάφραση μηνυμάτων σε πολλές γλώσσες, διευρύνοντας το διεθνές ακροατήριό του.

«Φιλοδοξίες» προς το παρόν, αλλά με μεγάλους κινδύνους

Παρά τα παραπάνω, οι εξτρεμιστικές οργανώσεις εξακολουθούν να υστερούν σε σχέση με κρατικούς δρώντες όπως η Κίνα, η Ρωσία ή το Ιράν, και βλέπουν τις πιο εξελιγμένες χρήσεις της AI ως «φιλοδοξίες», σύμφωνα με τον Μάρκους Φάουλερ, πρώην πράκτορα της CIA και νυν CEO της Darktrace Federal.

Ωστόσο, όπως τονίζει, οι κίνδυνοι αυξάνονται όσο η τεχνητή νοημοσύνη γίνεται φθηνότερη και πιο ισχυρή.

Ήδη, κυβερνοεγκληματίες χρησιμοποιούν συνθετικό ήχο και βίντεο για phishing επιθέσεις, προσποιούμενοι ανώτατα στελέχη ή κρατικούς αξιωματούχους. Η τεχνητή νοημοσύνη μπορεί επίσης να χρησιμοποιηθεί για τη συγγραφή κακόβουλου λογισμικού ή την αυτοματοποίηση κυβερνοεπιθέσεων.

Ιδιαίτερη ανησυχία προκαλεί το ενδεχόμενο χρήσης της τεχνητής νοημοσύνης για την παραγωγή βιολογικών ή χημικών όπλων, κίνδυνος που περιλαμβάνεται πλέον στην επικαιροποιημένη Εθνική Εκτίμηση Απειλών του αμερικανικού υπουργείου Εσωτερικής Ασφάλειας.

Νομοθετικές πρωτοβουλίες και αντίμετρα

Αμερικανοί νομοθέτες προωθούν σειρά προτάσεων, τονίζοντας την ανάγκη άμεσης δράσης. Ο γερουσιαστής Μαρκ Γουόρνερ, επικεφαλής των Δημοκρατικών στην Επιτροπή Πληροφοριών της Γερουσίας, δήλωσε ότι οι ΗΠΑ πρέπει να διευκολύνουν την ανταλλαγή πληροφοριών μεταξύ εταιρειών AI και Αρχών σχετικά με την κακόβουλη χρήση των εργαλείων αυτών.

Σε πρόσφατη ακρόαση στο Κογκρέσο, αποκαλύφθηκε ότι το ISIS και η αλ Κάιντα έχουν διοργανώσει εκπαιδευτικά εργαστήρια για τη χρήση τεχνητής νοημοσύνης από υποστηρικτές τους.

Νομοσχέδιο που εγκρίθηκε πρόσφατα από τη Βουλή των Αντιπροσώπων προβλέπει ετήσια αξιολόγηση των κινδύνων AI που προέρχονται από εξτρεμιστικές ομάδες.«Οι πολιτικές και οι δυνατότητές μας πρέπει να συμβαδίζουν με τις απειλές του αύριο», δήλωσε ο βουλευτής Όγκουστ Πφλούγκερ, εισηγητής του νομοσχεδίου.

 

Δείτε επίσης

Τελευταία Άρθρα

Τα πιο Δημοφιλή