Τεχνολογία|17.05.2023 12:42

Ο κόσμος σε επιφυλακή απέναντι στο AI - «Αν κάτι πάει λάθος τη βάψαμε», προειδοποιεί ο ιδρυτής του ChatGpt

Newsroom

Τους τελευταίους μήνες, σε κάθε γωνιά του πλανήτη έχουν γραφτεί χιλιάδες πράγματα για την τεχνητή νοημοσύνη γενικώς, αλλά και ειδικότερα για το ChatGPT. Ο Σαμ Άλτμαν, που χάρισε στον κόσμο το εργαλείο τεχνητής νοημοσύνης, μίλησε σε ειδική υποεπιτροπή του αμερικανικού Kογκρέσου, και μάλιστα δημοσίως, τα ξημερώματα της Τετάρτης (17/05).

Ο διευθύνων σύμβουλος της OpenAI έκρουσε τον κώδωνα του κινδύνου, αναφέροντας ότι «αν η Τεχνητή Νοημοσύνη πάρει τον λάθος δρόμο, τότε 'τη βάψαμε' όλοι μας. Πρέπει να δράσουμε από κοινού με την κυβέρνηση ώστε να προλάβουμε αυτό το ενδεχόμενο». Για τον ίδιο, και με την τεχνητή νοημοσύνη ισχύει ό,τι ακριβώς ισχύει για κάθε μεγάλη ανακάλυψη – υπάρχει πάντα το ενδεχόμενο να πέσει σε εντελώς λάθος χέρια και οι δυνατότητες που μπορεί να προσφέρει να πάρουν τον λάθος δρόμο. Όπως σημείωσε ο Άλτμαν, ο κίνδυνος είναι υπαρκτός και οι οργανωμένες κοινωνίες ανά τον κόσμο οφείλουν να είναι έτοιμες να τον αντιμετωπίσουν.

Πιθανή αιτία για να καταργηθούν θέσεις εργασίας 

Ο ίδιος πρόσθεσε ότι, υπάρχει περίπτωση η τεχνητή νοημοσύνη «να γίνει αιτία να καταργηθούν κάποιες θέσεις εργασίας, αλλά θα δημιουργήσει πολλές άλλες νέες. Και πέραν αυτού, η Τεχνητή Νοημοσύνη έχει τη δυνατότητα να βελτιώσει σχεδόν όλες τις πλευρές της ζωής μας, να προσφέρει λύσεις στις μεγαλύτερες προκλήσεις της ανθρωπότητας, όπως πχ την κλιματική αλλαγή, τη θεραπεία του καρκίνου κ.α.».

Ο Άλτμαν προτείνει τη δημιουργία όσο πιο άμεσα γίνεται μίας ειδικής υπηρεσίας η οποία θα χορηγεί άδειες για τη δημιουργία μεγάλης κλίμακας μοντέλων τεχνητής νοημοσύνης αλλά θα διασφαλίζει και την τήρηση των κανόνων ασφαλείας. Σύμφωνα με τη Washington Post,  ο ίδιος υποστήριξε μία σειρά κανονισμών -μεταξύ των οποίων και μία νέα κυβερνητική υπηρεσία, επιφορτισμένη με τη δημιουργία προτύπων για το χώρο – προκειμένου να αντιμετωπιστούν οι αυξανόμενες ανησυχίες ότι η εν λόγω τεχνολογία θα μπορούσε να διαστρεβλώσει την πραγματικότητα και να δημιουργήσει πρωτοφανείς κινδύνους για την ασφάλεια. Ο Άλτμαν συγκέντρωσε σειρά επίφοβων συμπεριφορών που παρουσιάζονται από τεχνολογίες παρόμοιες με το ChatGPT. Μεταξύ αυτών και η διάδοση μίας «διαδραστικής παραπληροφόρησης» αλλά και της συναισθηματικής χειραγώγησης. Επιπλέον ο Άλτμαν προτείνει τη διεξαγωγή ανεξάρτητων ελέγχων που θα δοκιμάζουν την απόδοση των μοντέλων σε διάφορες μετρήσεις, από εμπειρογνώμονες.

Συνεχίζει να αναπτύσσει την τεχνολογία, παρά τους κινδύνους

Ο Άλτμαν υποστηρίζει ότι, η διαδικασία ανάπτυξης των μοντέλων τεχνητής νοημοσύνης του OpenAI παρέχει χρόνο στα ιδρύματα προκειμένου να κατανοήσουν τις ενδεχόμενες απειλές. Ο ίδιος επιβεβαίωσε ότι, παρά τους πιθανούς κινδύνους, η εταιρεία του θα συνεχίσει να αναπτύσσει την τεχνολογία. Τον βαθύ φόβο τους για την ταχεία εξέλιξη της τεχνητής νοημοσύνης εξέφρασαν τα μέλη της υποεπιτροπής Δικαιοσύνης της Γερουσίας τα οποία και υπέδειξαν επανειλημμένα ότι, οι τελευταίες αυτές τεχνολογικές εξελίξεις, θα μπορούσαν να αποδειχθούν περισσότερο διαδραστικές από το Διαδίκτυο – ή ακόμα και εξίσου επικίνδυνες με την ατομική βόμβα. Και από τις δύο παρατάξεις, οι νομοθέτες εξέφρασαν ανοιχτά την ιδέα της δημιουργίας μιας νέας κυβερνητικής υπηρεσίας η οποία και θα είναι επιφορτισμένη με τη ρύθμιση της τεχνητής νοημοσύνης, παρότι, οι προηγούμενες προσπάθειες για τη δημιουργία της συγκεκριμένης υπηρεσίας, που θα φτιαχτεί και θα λειτουργεί υπό την επίβλεψη της Silicon Valley έχουν «παγώσει» στο Κογκρέσο. Όπως εξήγησε ο Άλτμαν, το OpenAI, για την αντιμετώπιση αυτών των κινδύνων, έχει υιοθετήσει ορισμένες πολιτικές. Μεταξύ αυτών και η απαγόρευση χρήσης του ChatGPT για τη «δημιουργία μεγάλου όγκου υλικού εκστρατείας».

Και στην Ευρωβουλή το θέμα ρυθμιστικού πλαισίου

Η Ευρώπη ελπίζει να πρωτοστατήσει εκ νέου με ένα τούτου ρυθμιστικό πλαίσιο επί τούτου, όπως έκανε με τον κανονισμό για τα προσωπικά δεδομένα. Στις 12 Μαΐου, οι Ευρωβουλευτές ενέκριναν νέους κανόνες διαφάνειας και διαχείρισης κινδύνου, που αφορούν στα συστήματα τεχνητής νοημοσύνης. Στη ρύθμιση αναφέρεται ότι θα απαγορεύονται αυστηρά συστήματα τεχνητής νοημοσύνης με απαράδεκτο επίπεδο κινδύνου για την ασφάλεια των ανθρώπων. Σε αυτά θα περιλαμβάνονται συστήματα που αναπτύσσουν υποσυνείδητες ή σκόπιμες τεχνικές χειραγώγησης, εκμεταλλεύονται τις ανθρώπινες αδυναμίες ή χρησιμοποιούνται για «κοινωνική αξιολόγηση» - δηλαδή, για την ταξινόμηση ανθρώπων με βάση την κοινωνική τους συμπεριφορά, την κοινωνικοοικονομική κατάσταση, την προσωπική τους κατάσταση, ή τα χαρακτηριστικά τους 

Όπως προκύπτει και από την παρουσία του Άλτμαν στο Κογκρέσο, αυτό που χρειάζεται ο κόσμος για να «θωρακιστεί» απέναντι στους κινδύνους της τεχνητής νοημοσύνης, είναι ένα πολύ συγκεκριμένο ρυθμιστικό πλαίσιο και κανόνες καθώς, οι δυνατότητες που δίνει η τεχνολογία, αλλά και η ανάπτυξή της, μπορεί να είναι ουδέτερες, ωστόσο δεν συμβαίνει το ίδιο και με τη χρήση της.

ΟΛΕΣ ΟΙ ΕΙΔΗΣΕΙΣ

Κογκρέσοτεχνητή νοημοσύνηειδήσεις τώραΕυρωβουλή