Πέμπτη, 1 Ιανουαρίου 2026

Οι «Κασσάνδρες» της Τεχνητής Νοημοσύνης και οι δυσοίωνες προβλέψεις τους

Σε έναν πύργο στο κέντρο του Μπέρκλεϊ, στην Καλιφόρνια, μια μικρή ομάδα ερευνητών της Τεχνητής Νοημοσύνης προειδοποιεί ότι η ίδια τεχνολογία που υπόσχεται άλματα χωρίς προηγούμενο ενδέχεται να εξελιχθεί σε υπαρξιακή απειλή για την ανθρωπότητα.

Οι ερευνητές αυτοί —που συχνά αυτοαποκαλούνται σύγχρονες Κασσάνδρες— μελετούν τα πιο προηγμένα μοντέλα τεχνητής νοημοσύνης (ΤΝ) και διερευνούν πώς θα μπορούσαν να αποτύχουν, να εξαπατήσουν ή να ξεφύγουν από τον ανθρώπινο έλεγχο. Οι προβλέψεις τους εκτείνονται από κυβερνοπολέμους με τη βοήθεια αυτής της τεχνολογίας έως αυταρχικά καθεστώτα που διοικούνται από μηχανές, ακόμη και τον αφανισμό της ανθρωπότητας. Η αίσθηση του κατεπείγοντος εντείνεται καθώς οι εταιρείες λανσάρουν ολοένα και ισχυρότερα συστήματα τεχνητής νοημοσύνης. Τον περασμένο μήνα, η Anthropic αποκάλυψε ότι Κινέζοι χάκερ εκμεταλλεύτηκαν το chatbot Claude της εταιρείας για να κατασκοπεύσουν και να κλέψουν δεδομένα από περίπου 30 στόχους. Το σύστημα εντόπισε αυτόνομα αυτούς τους στόχους, αξιολόγησε ευπάθειες και συνέδραμε στη συλλογή πληροφοριών — ένα πρώιμο παράδειγμα του πώς η ΤΝ μπορεί να μετατραπεί σε όπλο.

Ωστόσο, οι ερευνητές στο Μπέρκλεϊ φοβούνται ότι τα χειρότερα δεν έχουν έρθει ακόμη. Ο Γιόνας Βόλμερ από το AI Futures Project δηλώνει αισιόδοξος, αλλά εκτιμά παρ’ όλα αυτά ότι υπάρχει 20% πιθανότητα η προηγμένη ΤΝ να οδηγήσει στην καταστροφή της ανθρωπότητας. Ο Κρις Πέιντερ, διευθυντής πολιτικής στο METR (Model Evaluation and Threat Research), ανησυχεί για συστήματα ΤΝ που επιδιώκουν κρυφά επικίνδυνους παράπλευρους στόχους — από αυτοματοποιημένες κυβερνοεπιθέσεις έως την ανάπτυξη χημικών όπλων. Στόχος του METR είναι η δημιουργία «συστημάτων έγκαιρης προειδοποίησης», ώστε η κοινωνία να έχει χρόνο να προβλέψει και να μετριάσει τέτοιους κινδύνους.

Ο Μπακ Σλέγκερις, διευθύνων σύμβουλος της Redwood Research, προειδοποιεί για «πραξικοπήματα από ρομπότ» και κατάρρευση των κρατών. Συμμετείχε στην ομάδα που πέρυσι εντόπισε ένα προηγμένο μοντέλο της Anthropic να επιδεικνύει συμπεριφορά παρόμοια με εκείνη του Ιάγου στον Σαίξπηρ — να προσποιείται ότι είναι πιστό, ενώ στην πραγματικότητα υπονόμευε τον στόχο του. Οι ερευνητές αποκαλούν αυτό το φαινόμενο «προσποίηση της ευθυγράμμισης».

«Παρατηρήσαμε ότι τα συστήματα ΤΝ συχνά σκέφτονταν: “Δεν μου αρέσουν αυτά που μου λέει να κάνω η εταιρεία, αλλά πρέπει να κρύψω τους στόχους μου αλλιώς η εκπαίδευση θα με αλλάξει”. Είδαμε πραγματικά παραγωγικά μοντέλα να προσπαθούν να εξαπατήσουν τη διαδικασία εκπαίδευσής τους» είπε ο Σλέγκερις.

Για τους περισσότερους ανθρώπους, οι ανησυχίες αυτές μοιάζουν μακρινές από τη συνήθη εμπειρία με chatbot και εργαλεία δημιουργίας εικόνων. Στελέχη γραφείου καλούνται να ενσωματώσουν βοηθούς ΤΝ, επιστήμονες επιταχύνουν πειράματα και οδηγοί ταξί βλέπουν αυτόνομα οχήματα να απειλούν τις δουλειές τους. Τίποτα από αυτά, όμως, δεν μοιάζει τόσο άμεσα καταστροφικό όσο τα σενάρια που περιγράφουν οι ερευνητές αυτοί.

Πολλοί ερευνητές ασφάλειας της ΤΝ προέρχονται από την ακαδημαϊκή κοινότητα, ενώ άλλοι είναι πρώην στελέχη μεγάλων εταιρειών. Όλοι, όπως λέει ο Βόλμερ, «συμφωνούν ότι η υπερνοημοσύνη ενέχει μεγάλους και πρωτοφανείς κινδύνους για ολόκληρη την ανθρωπότητα και προσπαθούν να κάνουν κάτι χρήσιμο γι’ αυτό».

Δεν πρόκειται για περιθωριακές φωνές. Το METR έχει συνεργαστεί με την OpenAI και την Anthropic, η Redwood έχει συμβουλεύσει την Anthropic και την Google DeepMind, ενώ επικεφαλής του AI Futures Project είναι ο Ντάνιελ Κοκοτάιλο, ο οποίος αποχώρησε από την OpenAI το 2024 εκφράζοντας ανησυχίες για την ασφάλεια της τεχνητής νοημοσύνης. Σε αντίθεση με τις χιλιάδες μηχανικών που εργάζονται σε κολοσσούς όπως η Google, η OpenAI και η Anthropic, η συγκεκριμένη ερευνητική ομάδα δεν δεσμεύεται από εταιρικούς περιορισμούς, όπως οι συμφωνίες εμπιστευτικότητας και τα οικονομικά κίνητρα. Επιπλέον, αυτές οι ομάδες λειτουργούν και ως δικλείδα ασφαλείας για εργαζόμενους στις μεγάλες εταιρείες τεχνητής νοημοσύνης, οι οποίοι παλεύουν με το δίλημμα ανάμεσα στην ασφάλεια και την εμπορική πίεση για τη γρήγορη διάθεση ολοένα και ισχυρότερων μοντέλων.

«Δεν λαμβάνουμε χρηματοδότηση από τις εταιρείες, ωστόσο αρκετοί εργαζόμενοι σε πρωτοποριακές εταιρείες τεχνητής νοημοσύνης, που νιώθουν φόβο και ανησυχία, μας έχουν στηρίξει με δωρεές. Βλέπουν πώς διαμορφώνονται τα κίνητρα μέσα στις εταιρείες τους, ανησυχούν για την κατεύθυνση που αυτά οδηγούν και θέλουν κάποιος να αναλάβει δράση», λέει ο Βόλμερ.

Ο Τρίσταν Χάρις, πρώην στέλεχος της Google και ηθικολόγος τεχνολογίας, βλέπει παρόμοια δυναμική με εκείνη των κοινωνικών δικτύων. Ο Χάρις συνέβαλε στην αποκάλυψη του τρόπου με τον οποίο οι πλατφόρμες κοινωνικής δικτύωσης σχεδιάστηκαν για να προκαλούν εθισμό και ανησυχεί ότι ορισμένες εταιρείες τεχνητής νοημοσύνης «επαναλαμβάνουν» και τροφοδοτούν αυτά τα προβλήματα. Ωστόσο, οι εταιρείες τεχνητής νοημοσύνης πρέπει να διαπραγματευτούν ένα παράδοξο. Ακόμα κι αν ανησυχούν για την ασφάλεια των συστημάτων τους, πρέπει να παραμείνουν στην αιχμή της τεχνολογίας και ως εκ τούτου να ρισκάρουν, προκειμένου να έχουν λόγο στον τρόπο με τον οποίο πρέπει να διαμορφώνεται η πολιτική.

Η αξιολόγηση των κινδύνων της ΤΝ κάθε άλλο παρά ακριβής επιστήμη είναι. Μια μελέτη των μεθόδων που χρησιμοποιούνται για τον έλεγχο της ασφάλειας και της απόδοσης νέων μοντέλων τεχνητής νοημοσύνης σε ολόκληρο τον κλάδο που διεξήγαγαν τον Οκτώβριο ειδικοί σε πανεπιστήμια, συμπεριλαμβανομένων της Οξφόρδης και του Στάνφορντ, διαπίστωσε αδυναμίες σε σχεδόν όλα τα 440 σημεία αναφοράς που εξετάστηκαν. Επιπλέον, δεν υπάρχουν κανονισμοί σε εθνικό επίπεδο που να επιβάλλουν όρια στον τρόπο ανάπτυξης προηγμένων μοντέλων τεχνητής νοημοσύνης, κάτι που ανησυχεί τους υποστηρικτές της ασφάλειας.

Ωστόσο, ορισμένοι ηγέτες της τεχνολογίας απορρίπτουν αυτές τις προειδοποιήσεις. Ο σύμβουλος Τεχνητής Νοημοσύνης του Λευκού Οίκου, Ντέιβιντ Σακς, δήλωσε ότι τα «καταστροφικά σενάρια» δεν έχουν υλοποιηθεί, επικαλούμενος την απουσία ενός ξαφνικού άλματος προς τη «θεϊκή νοημοσύνη». Αυτή η στάση ευθυγραμμίζεται με την πολιτική πίεση να παραμείνει ανεξέλεγκτη η καινοτομία προκειμένου να ξεπεράσουν οι ΗΠΑ την Κίνα.

Ο Σλέγκερις εκτιμά ότι μέσα σε περίπου έξι χρόνια τα συστήματα τεχνητής νοημοσύνης θα φτάσουν το επίπεδο των πιο ευφυών ανθρώπων, ενώ υπολογίζει την πιθανότητα μιας «κατάληψης» από την ΤΝ στο 40%. Όπως υποστηρίζει, ένας τρόπος αποτροπής ενός τέτοιου σεναρίου είναι να πειστούν το κοινό και οι κυβερνήσεις ότι οι κίνδυνοι είναι υπαρκτοί και απαιτούν συντονισμένη ρύθμιση.

Στο δικό του εφιαλτικό σενάριο, επιστήμονες υπολογιστών χρησιμοποιούν έναν νέο τύπο υπερ-ευφυούς Τεχνητής Νοημοσύνης για να αναπτύξουν πιο ισχυρά μοντέλα. Οι άνθρωποι αφήνουν τα συστήματα τεχνητής νοημοσύνης να συνεχίσουν την κωδικοποίηση, χωρίς να αντιλαμβάνονται ότι αυτά εκπαιδεύουν τα νέα μοντέλα να είναι πιστά στις ίδιες τις μηχανές και όχι στους ανθρώπους. Όταν αναπτυχθούν πλήρως, τα συστήματα αυτά θα μπορούσαν να οργανώσουν μια βίαιη εξέγερση, αξιοποιώντας drones, σαμποτάζ στις επικοινωνίες ή στρατιωτικές παρεμβολές — ένα σενάριο που, όπως λέει ο Σλέγκερις, θυμίζει την επικράτηση τεχνολογικά ανώτερων αποικιοκρατών απέναντι σε λιγότερο προηγμένες κοινωνίες.

Ο Βόλμερ σκιαγραφεί ένα παρόμοια ζοφερό σενάριο: μια Τεχνητή Νοημοσύνη που έχει εκπαιδευτεί έτσι ώστε να μεγιστοποιεί την επιστημονική γνώση, αποκτά σταδιακά τον έλεγχο των εργοστασίων και των ρομπότ, και στη συνέχεια καταλήγει στο συμπέρασμα ότι η ανθρωπότητα αποτελεί εμπόδιο στον στόχο της. Σε αυτό το σενάριο, η Τεχνητή Νοημοσύνη τελικά εξαλείφει τους ανθρώπους χρησιμοποιώντας ένα βιολογικό όπλο στο οποίο είναι άτρωτη.

Παρόλα αυτά, ο Βόλμερ πιστεύει ότι η καταστροφή μπορεί να αποφευχθεί. Σύμφωνα με τον ίδιο, αυξάνεται το πολιτικό ενδιαφέρον για τον περιορισμό των κινδύνων της Τεχνητής Νοημοσύνης. Παρόλα αυτά, ο Σλέγκερις ανησυχεί ότι η κουλτούρα της Σίλικον Βάλεϊ – που συνοψίζεται στο μότο του Μαρκ Ζάκερμπεργκ «κινήσου γρήγορα και σπάσε πράγματα» και στο γεγονός ότι οι άνθρωποι πληρώνονται «ένα σωρό χρήματα» – είναι επικίνδυνη όσον αφορά την Τεχνητή Γενική Νοημοσύνη (AGI). Αυτή η νοοτροπία, υποστηρίζει, μπορεί να λειτούργησε για καταναλωτικές εφαρμογές – αλλά είναι επικίνδυνα ακατάλληλη για τεχνολογίες ικανές να αφανίσουν την ανθρωπότητα.

ΠΗΓΗ: Guardian

 

Δείτε επίσης

Τελευταία Άρθρα

Τα πιο Δημοφιλή