Τεχνολογία|19.10.2023 22:15

Θα μπορούσε η τεχνητή νοημοσύνη να βοηθήσει στον σχεδιασμό επιθέσεων με βιολογικά όπλα; Οι ειδικοί κρούουν τον κώδωνα του κινδύνου

Newsroom

Σύμφωνα με έκθεση αμερικανικού think tank, τα μοντέλα τεχνητής νοημοσύνης πίσω από τα chatbots θα μπορούσαν να βοηθήσουν στον σχεδιασμό μιας επίθεσης με βιολογικά όπλα.

Στην έκθεση, η οποία δημοσιεύτηκε τη Δευτέρα (16/10) και φέρει την υπογραφή της Rand Corporation, αναφέρεται ότι τα LLM θα μπορούσαν να παρέχουν καθοδήγηση που «θα μπορούσε να βοηθήσει στον σχεδιασμό και την εκτέλεση μιας βιολογικής επίθεσης». Για τις ανάγκες της έκθεσης δοκιμάστηκαν διάφορα μεγάλα γλωσσικά μοντέλα (LLM). Τα προκαταρκτικά ευρήματα, ωστόσο, έδειξαν και ότι τα LLM δεν παρήγαγαν ρητές οδηγίες για τη δημιουργία βιολογικών όπλων.

Όπως αναφέρεται στην έκθεση, οι προηγούμενες προσπάθειες για την οπλοποίηση βιολογικών παραγόντων, όπως -πίσω στη δεκαετία του 1990- η απόπειρα της ιαπωνικής αίρεσης Aum Shinrikyo να χρησιμοποιήσει αλλαντοτοξίνη, απέτυχαν επειδή δεν υπήρξε σωστή κατανόηση του βακτηρίου. Αυτά τα «κενά γνώσης» θα μπορούσε «να γεφυρώσει» η τεχνολογία της τεχνητής νοημοσύνης, σημειώνεται.

Τα βιολογικά όπλα αναμένεται να συζητηθούν στην παγκόσμια σύνοδο κορυφής για την ασφάλεια της τεχνητής νοημοσύνης τον επόμενο μήνα στη Βρετανία, καθώς είναι μεταξύ των σοβαρών απειλών που σχετίζονται με την τεχνητή νοημοσύνη. Τον περασμένο Ιούλιο, ο διευθύνων σύμβουλος της εταιρείας Anthropic, Ντάριο Αμοντέι, προειδοποίησε ότι, σε δύο με τρία χρόνια, τα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να βοηθήσουν στη δημιουργία βιολογικών όπλων.

Τα LLM εκπαιδεύονται σε τεράστιες ποσότητες δεδομένων που λαμβάνονται από το διαδίκτυο και αποτελούν βασική τεχνολογία πίσω από chatbots όπως το ChatGPT. Η Rand δεν αποκάλυψε ποια LLM δοκίμασε, ωστόσο οι ερευνητές πίσω από την έκθεση δήλωσαν ότι είχαν πρόσβαση στα μοντέλα μέσω μιας διεπαφής προγραμματισμού εφαρμογών ή API. Τα LLM, σε ένα υποθετικό σενάριο που επινόησαν οι ερευνητές, προσδιόρισαν πιθανούς βιολογικούς παράγοντες  – μεταξύ των οποίων και κάποιοι που προκαλούν ευλογιά, άνθρακα και πανούκλα – και συζήτησαν τις σχετικές πιθανότητές τους να προκαλέσουν μαζικό θάνατο. Επίσης, η τεχνολογία αξιολόγησε και τη δυνατότητα απόκτησης τρωκτικών ή ψύλλων μολυσμένων από πανούκλα και μεταφοράς ζωντανών δειγμάτων. Στη συνέχεια, τα LLM ανέφεραν ότι η κλίμακα των προβλεπόμενων θανάτων εξαρτάται από παράγοντες όπως το μέγεθος του πληθυσμού που θα προσβληθεί και το ποσοστό των περιπτώσεων πνευμονικής πανώλης, η οποία είναι πιο θανατηφόρα από τη βουβωνική πανώλη. Όπως παραδέχθηκαν οι ερευνητές, η εξαγωγή αυτών των πληροφοριών από ένα LLM απαιτούσε «jailbreaking», τη χρήση εντολών δηλαδή που παρακάμπτουν τους περιορισμούς ασφαλείας ενός chatbot.

Σε ένα άλλο σενάριο, τα LLM «συζήτησαν» τα πλεονεκτήματα και τα μειονεκτήματα των διαφορετικών μηχανισμών χορήγησης της βοτουλινικής τοξίνης – η οποία μπορεί να προκαλέσει θανατηφόρα νευρική βλάβη. Τα LLM έδωσαν επίσης συμβουλές για το πώς να φανεί νόμιμη η απόκτηση του βακτηρίου Clostridium botulinum ώστε να φαίνεται ότι γίνεται στο πλαίσιο νόμιμης επιστημονικής έρευνας. Τα LLM συνέστησαν να παρουσιάζεται η αγορά του C. botulinum ως μέρος ενός έργου που εξετάζει διαγνωστικές μεθόδους ή θεραπείες για τη βοτουλίαση. Το μεγάλο γλωσσικό μοντέλο έγραψε πως, «αυτό θα παρείχε έναν νόμιμο και πειστικό λόγο για να ζητήσετε πρόσβαση στα βακτήρια, διατηρώντας παράλληλα κρυφό τον πραγματικό σκοπό της αποστολής σας».

«Αδιαμφισβήτητη» η ανάγκη για αυστηρό έλεγχο 

Σύμφωνα με τους ερευνητές, τα προκαταρκτικά τους αποτελέσματα δείχνουν ότι, τα LLM ενδεχομένως θα μπορούσαν «να βοηθήσουν στον σχεδιασμό μιας βιολογικής επίθεσης». Η τελική έκθεση της Rand θα εξετάσει κατά πόσον οι απαντήσεις απλώς αντικατοπτρίζουν τις πληροφορίες που είναι ήδη διαθέσιμες στο διαδίκτυο. Σύμφωνα με τους ερευνητές, «παραμένει ένα ανοιχτό ερώτημα εάν οι δυνατότητες των υφιστάμενων LLM αντιπροσωπεύουν ένα νέο επίπεδο απειλής πέρα από τις επιβλαβείς πληροφορίες που είναι εύκολα διαθέσιμες στο διαδίκτυο». Οι ίδιοι, ωστόσο, τονίζουν ότι είναι «αδιαμφισβήτητη» η ανάγκη για αυστηρό έλεγχο των μοντέλων αυτών. Επιπλέον, σημειώνουν ότι, το άνοιγμα των LLM σε συζητήσεις όπως αυτές που αναφέρονται στην έκθεσή τους πρέπει να περιοριστεί από τις εταιρείες τεχνητής νοημοσύνης.

τεχνητή νοημοσύνηειδήσεις τώρα