Τεχνολογία|30.11.2024 03:33

Τεχνητή νοημοσύνη και woke κουλτούρα

Newsroom

Μια από τις διαστάσεις της ιδεολογικής διαμάχης γύρω από τη woke κουλτούρα είναι και ο ρόλος που διαδραματίζει η τεχνητή νοημοσύνη στα ζητήματα των ταυτοτικών μεροληψιών. Με άλλα λόγια, το εάν και σε ποιο βαθμό η Τεχνητή Νοημοσύνη αναπαριστά δίκαια και ισότιμα ομάδες του πληθυσμού που υπό-εκπροσωπούνται ή υφίστανται καταπίεση.  

Στο επίκεντρο της σχετικής συζήτησης βρέθηκε ήδη από τις αρχές του 2024, το εργαλείο Gemini της Google, το οποίο λανσαρίστηκε με την υπόσχεση ότι θα προσφέρει λύση στο πρόβλημα των προκαταλήψεων που διέπουν άλλα εργαλεία Τεχνητής Νοημοσύνης.

Γρήγορα το Gemini βρέθηκε να πρωταγωνιστεί στον πολιτισμικό πόλεμο που μαίνεται γύρω από την κουλτούρα της αφύπνισης [woke], όταν κατασκεύασε εικόνες που περιλάμβαναν στους Πατέρες του Έθνους των ΗΠΑ έναν μαύρο άντρα και εικόνες με στρατιώτες του γερμανικού στρατού με μαύρα χαρακτηριστικά, καθώς και νοσοκόμες με ασιατικά χαρακτηριστικά.

Η «διόρθωση» που επιχείρησε να επιβάλει το Gemini στις αναπαραστάσεις ιστορικών γεγονότων σύντομα καταγγέλθηκε από εκπροσώπους της συντηρητικής πτέρυγας των ΗΠΑ ως τυπικό δείγμα του «γουκισμού» της Sillicon Valley, με την Google να απολογείται για την ιστορική ανακρίβεια των εικόνων που παρήγαγε το εργαλείο της.

Ωστόσο, το ερώτημα του τι ρόλο έχει να διαδραματίσει η Τεχνητή Νοημοσύνη στα ζητήματα της εκπροσώπησης ομάδων που αντιμετωπίζουν κοινωνικές ανισότητες ή μη επαρκή εκπροσώπηση στον δημόσιο χώρο παραμένει.

Στο πολύ ενδιαφέρον άρθρο του, στο γαλλικό περιοδικό Esprit, o Adrien Tallent, ερευνητής στον τομέα της Φιλοσοφίας, ειδικευμένος σε ζητήματα ηθικών και πολιτικών συνεπειών της τεχνολογίας, περιγράφει ότι το δύσκολο ζήτημα που τίθεται είναι αν η Τεχνητή Νοημοσύνη θα πρέπει να αποτυπώνει τον κόσμο μας, όπως υφίσταται σήμερα ή χρειάζεται να επιχειρεί μια άρση των προκαταλήψεων που υπάρχουν σε αυτόν.

«Καθώς οι αλγόριθμοι γίνονται πανταχού παρόντες στην καθημερινή μας ζωή, τα άτομα έρχονται αντιμέτωπα με αυτοματοποιημένα συστήματα που θεωρούνται ουσιαστικά αλάνθαστα, ορθολογικά και αντικειμενικά, αλλά των οποίων ο ίδιος ο σχεδιασμός αντανακλά τις επιλογές και τις προκαταλήψεις των σχεδιαστών τους και των ανθρώπινων κοινωνιών», σημειώνει ο Tallent.

Δύο είδη προβλημάτων

Αναφερόμενος στις υπάρχουσες ερευνητικές εργασίες για αυτό το θέμα, ο Tallent εξηγεί ότι υφίστανται δύο είδη προβλημάτων με τις προκαταλήψεις που αναπαράγουν τα μοντέλα Τεχνητής Νοημοσύνης.

Το πρώτο είναι ιστορικό, όπως επισημαίνει, καθώς τα δεδομένα στα οποία βασίζονται αυτά τα μοντέλα είναι έμπλεα από πληροφορίες που δεν εκπροσωπούν ισότιμα όλες τις κατηγορίες πληθυσμού.

Το δεύτερο είναι συστημικό, με την έννοια ότι αυτά τα εργαλεία εξακολουθούν να προγραμματίζονται από ανθρώπους που ως μέλη της κοινωνίας κουβαλούν τις δικές τους προκαταλήψεις.

«Όμως, οι τεχνολογίες Τεχνητής Νοημοσύνης δεν αναπαράγουν απλώς αυτές τις προκαταλήψεις, αλλά τις ενισχύουν καθιστώντας τις συστηματικές και αυτόματες. Δεν είναι τίποτε άλλο από “κατεξοχήν υποκειμενικές επιλογές, απόψεις ή και προκαταλήψεις που εισάγονται σε μαθηματικές εξισώσεις”», επισημαίνει ο Tallent.

Στον αντίποδα, αναφέρεται σε πρωτοβουλίες που έχουν επιχειρήσει να καταδείξουν ή να άρουν αυτές τις προκαταλήψεις, όπως η εκστρατεία ευαισθητοποίησης από την ένωση για την προώθηση της ισότητας των φύλων #JamaisSansElles, που ανέδειξε τις διακρίσεις των παραγωγικών μοντέλων τεχνητής νοημοσύνης, τα οποία απεικονίζουν έναν διευθύνοντα σύμβουλο ως λευκό άνδρα άνω των 50 ετών και μια γραμματέα ως νεαρή, συχνά σεξουαλικοποιημένη γυναίκα.

Ωστόσο, ο αντίλογος στις απόπειρες να ευθυγραμμιστούν τα μοντέλα Τεχνητής Νοημοσύνης με μια πιο ισότιμη αναπαράσταση της κοινωνίας, καταγγέλλεται συχνά ως παραβίαση της ουδετερότητας που οφείλουν να έχουν στο όνομα μιας στρεβλής πολιτικής ορθότητας.

«Πρέπει να υπάρχουν αποχρώσεις»

«Πρέπει να υπάρχουν αποχρώσεις. Παρ' όλα αυτά, είναι περίπλοκο για ένα μοντέλο ΤΝ να γνωρίζει πότε τα ιστορικά δεδομένα είναι σημαντικά και πότε η αναπαράσταση ενός ιδανικού οράματος για την κοινωνία είναι προτιμότερη», αναφέρει ο Tallent στο άρθρο του.

«Όπως και στα κοινωνικά δίκτυα, η δυσκολία ελέγχου του περιεχομένου της ΤΝ αποτελεί μέρος της πολιτικής πόλωσης. Εδώ συναντάμε τις αντιθέσεις μεταξύ της μετριοπάθειας και των υποστηρικτών του laissez-faire και της ελευθερίας της έκφρασης πάση θυσία - που ήδη γνωρίζουμε ότι είναι θεμελιωδώς άδικη», συμπληρώνει ο ίδιος, τονίζοντας πώς ο Ντόναλντ Τραμπ έχει κεφαλαιοποιήσει πολιτικά αυτή τη ρητορική ενάντια σε οποιαδήποτε ρύθμιση.

«Η τεχνητή νοημοσύνη είναι ένα πολιτικό ζήτημα. Αντιμέτωποι με αυτές τις προκλήσεις, οι εμπειρογνώμονες και οι ακτιβιστές ζητούν μεγαλύτερη ποικιλομορφία μεταξύ των μηχανικών και μεγαλύτερη διαφάνεια», αναφέρει ο Τallent, καταλήγοντας ότι οι κατευθύνσεις που θα ενσωματωθούν τελικά και θα παραχθούν από τις νέες τεχνολογικές καινοτομίες στα ζητήματα των προκαταλήψεων είναι κρίσιμες.

Όπως προκύπτει από τις διαφορετικές τοποθετήσεις στο συγκεκριμένο πεδίο, ο ρόλος που θα διαδραματίσει η Τεχνητή Νοημοσύνη στα ζητήματα των προκαταλήψεων δεν έχει μια απλή απάντηση.

Ωστόσο, όπως ισχύει για όλες τις σύγχρονες εκφράσεις πολιτισμικής παραγωγής, και σε αυτό το πεδίο, οι πολιτικές συγκρούσεις ανάμεσα στο αίτημα για μια πιο δίκαιη και ισότιμη εκπροσώπηση των κοινωνικών ομάδων και στις καταγγελίες περί «ασφυκτικής πολιτικής ορθότητας του γουκισμού» είναι έντονες και ορατές.

Πηγή: Esprit.

ΗΠΑειδήσεις τώραgoogleΝτόναλντ Τραμπτεχνητή νοημοσύνη