Αυστραλία: Η τεχνητή νοημοσύνη μπορεί να ενισχύσει τον ρατσισμό και τον σεξισμό

Η Επίτροπος Ανθρωπίνων Δικαιωμάτων της Αυστραλίας προειδοποιεί ότι η τεχνητή νοημοσύνη (ΤΝ) ενδέχεται να εδραιώσει τον ρατσισμό και τον σεξισμό στη χώρα, καθώς εντείνονται οι εσωτερικές διαφωνίες στο Εργατικό Κόμμα για το πώς πρέπει να αντιμετωπιστεί αυτή η αναδυόμενη τεχνολογία. Η Επίτροπος Λορέιν Φίνλεϊ επισημαίνει ότι η επιδίωξη αύξησης της παραγωγικότητας μέσω της τεχνητής νοημοσύνης δεν πρέπει να γίνεται εις βάρος της καταπολέμησης των κοινωνικών διακρίσεων, ειδικά αν η τεχνολογία δεν ρυθμιστεί σωστά.
Τα σχόλια της Φίνλεϊ ακολουθούν την κίνηση της γερουσιάστριας του Εργατικού Κόμματος Μισέλ Ανάντα-Ράτζα, η οποία διαφοροποιήθηκε από τη γραμμή του κόμματος ζητώντας να «απελευθερωθούν» όλα τα δεδομένα και να δοθούν στις εταιρείες τεχνολογίας, ώστε να αποφευχθεί η αναπαραγωγή προκαταλήψεων και να αντανακλάται καλύτερα η ζωή και η κουλτούρα της χώρας. Η Ανάντα-Ράτζα, πρώην γιατρός και ερευνήτρια στον τομέα της ΤΝ, αντιτίθεται στον ειδικό νόμο για την τεχνητή νοημοσύνη, αλλά πιστεύει ότι οι δημιουργοί περιεχομένου πρέπει να αμείβονται για το έργο τους.
Τα πιθανά οφέλη της τεχνητής νοημοσύνης στην παραγωγικότητα αναμένεται να τεθούν στο επίκεντρο της οικονομικής συνόδου κορυφής της ομοσπονδιακής κυβέρνησης την επόμενη εβδομάδα, την ώρα που συνδικάτα και επαγγελματικοί φορείς εκφράζουν έντονες ανησυχίες σχετικά με την προστασία των πνευματικών δικαιωμάτων και της ιδιωτικής ζωής. Ομάδες από τον χώρο των μέσων ενημέρωσης και των τεχνών προειδοποιούν για «ανεξέλεγκτη κλοπή» πνευματικής ιδιοκτησίας, αν οι μεγάλες τεχνολογικές εταιρείες αποκτήσουν το δικαίωμα να χρησιμοποιούν το περιεχόμενό τους για την εκπαίδευση των μοντέλων τους.
Μεροληψία και τεχνητή νοημοσύνη
Η Φίνλεϊ τονίζει ότι η έλλειψη διαφάνειας σχετικά με τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση των εργαλείων τεχνητής νοημοσύνης καθιστά δύσκολη την αναγνώριση των πιθανών προκαταλήψεων.
«Αλγοριθμική μεροληψία σημαίνει ότι οι προκαταλήψεις και οι αδικίες είναι ενσωματωμένες στα εργαλεία που χρησιμοποιούμε, και έτσι οι αποφάσεις που προκύπτουν αντανακλούν αυτές τις προκαταλήψεις», εξηγεί.
«Όταν συνδυάζουμε την αλγοριθμική μεροληψία με την αυτοματοποιημένη μεροληψία – δηλαδή την τάση των ανθρώπων να εμπιστεύονται περισσότερο τις αποφάσεις των μηχανών και να αντικαθιστούν τη δική τους σκέψη – υπάρχει σοβαρός κίνδυνος να προκύψουν διακρίσεις και προκαταλήψεις με τέτοιο τρόπο που να είναι τόσο βαθιά ριζωμένες ώστε να μην τις αντιλαμβανόμαστε καν» πρόσθεσε.
Η Επιτροπή Ανθρωπίνων Δικαιωμάτων υποστηρίζει σταθερά την ανάγκη ψήφισης νόμου για την ΤΝ, που θα ενισχύει την υπάρχουσα νομοθεσία, όπως τον Νόμο περί Ιδιωτικότητας, και θα προβλέπει αυστηρούς ελέγχους για την αντιμετώπιση της μεροληψίας στα εργαλεία ΤΝ. Η Φίνλεϊ τονίζει πως η κυβέρνηση πρέπει να θεσπίσει άμεσα νέα νομοθετικά πλαίσια.
«Απαιτούνται δοκιμές και έλεγχοι μεροληψίας, καθώς και επαρκής ανθρώπινη εποπτεία. Πρέπει να εφαρμοστούν διάφορα μέτρα», προτείνει.
Υπάρχουν αυξανόμενες ενδείξεις για την ύπαρξη μεροληψίας σε εργαλεία ΤΝ τόσο στην Αυστραλία όσο και διεθνώς, σε τομείς όπως η ιατρική και η πρόσληψη προσωπικού. Σύμφωνα με αυστραλιανή μελέτη που δημοσιεύθηκε τον Μάιο, υποψήφιοι για εργασία που αξιολογούνται από συστήματα τεχνητής νοημοσύνης κινδυνεύουν να αντιμετωπίσουν διακρίσεις, ειδικά αν έχουν ξένη προφορά ή κάποια μορφή αναπηρίας.
Παρά τις επισημάνσεις της κυβέρνησης για την ανάγκη προστασίας της πνευματικής ιδιοκτησίας, η γερουσιάστρια Μισέλ Ανάντα-Ράτζα προειδοποιεί ότι αν δεν απελευθερωθούν τα εσωτερικά δεδομένα, η Αυστραλία θα αναγκάζεται «για πάντα να νοικιάζει μοντέλα ΤΝ από τεχνολογικούς κολοσσούς του εξωτερικού», χωρίς καμία εποπτεία ή διαφάνεια σχετικά με τα μοντέλα ή τις πλατφόρμες τους.
«Η ΤΝ πρέπει να εκπαιδεύεται με όσο το δυνατόν περισσότερα δεδομένα από το ευρύτερο φάσμα του πληθυσμού, αλλιώς θα ενισχύει τις προκαταλήψεις και πιθανόν θα βλάπτει τους ίδιους ανθρώπους που προορίζεται να εξυπηρετεί», σημειώνει.
«Πρέπει να απελευθερώσουμε τα δικά μας δεδομένα ώστε να εκπαιδεύσουμε μοντέλα που θα μας αντιπροσωπεύουν καλύτερα. Θέλω να δώσω κίνητρα στους δημιουργούς περιεχομένου ενώ παράλληλα να απελευθερώσω τα δεδομένα» προσθέτει.
Η Ανάντα-Ράτζα έφερε ως χαρακτηριστικό παράδειγμα τη χρήση τεχνητής νοημοσύνης στον εντοπισμό καρκίνου του δέρματος, τονίζοντας ότι τα σχετικά εργαλεία έχουν αποδειχθεί ότι παρουσιάζουν αλγοριθμική μεροληψία. Η ίδια τονίζει πως ο τρόπος για να ξεπεραστούν οι προκαταλήψεις ή οι διακρίσεις εναντίον ορισμένων ασθενών είναι να εκπαιδευτούν «αυτά τα μοντέλα με όσο το δυνατόν πιο ποικιλόμορφα αυστραλιανά δεδομένα», προστατεύοντας ταυτόχρονα τα ευαίσθητα δεδομένα.
Η Φίνλεϊ επισημαίνει ότι οποιαδήποτε απελευθέρωση δεδομένων πρέπει να γίνει με δίκαιο τρόπο, αλλά πιστεύει πως η έμφαση πρέπει να δοθεί στη ρύθμιση.
«Η ύπαρξη ποικιλόμορφων και αντιπροσωπευτικών δεδομένων είναι σίγουρα θετικό στοιχείο… αλλά αποτελεί μόνο ένα μέρος της λύσης», λέει.
«Πρέπει να διασφαλίσουμε ότι η τεχνολογία αυτή εφαρμόζεται με δίκαιο τρόπο για όλους και αναγνωρίζει πραγματικά το έργο και τις συνεισφορές των ανθρώπων» τόνισε.
Η Τζούντιθ Μπίσοπ, ειδικός στην τεχνητή νοημοσύνη στο Πανεπιστήμιο La Trobe και πρώην ερευνήτρια δεδομένων σε εταιρεία ΤΝ, υποστηρίζει ότι η απελευθέρωση περισσότερων δεδομένων θα βοηθήσει στην κατάλληλη εκπαίδευση των εργαλείων ΤΝ- ενώ προειδοποιεί ότι τα εργαλεία που αναπτύσσονται στο εξωτερικό με διεθνή δεδομένα, μπορεί να μην ανταποκρίνονται στις ανάγκες των Αυστραλών — αλλά επισημαίνει ότι αυτό είναι μόνο ένα μικρό μέρος της λύσης.
«Πρέπει να είμαστε προσεκτικοί ώστε ένα σύστημα που αρχικά αναπτύχθηκε σε άλλες συνθήκες να είναι όντως εφαρμόσιμο για τον αυστραλιανό πληθυσμό, και να μην βασιζόμαστε σε αμερικανικά μοντέλα που έχουν εκπαιδευτεί με δεδομένα των ΗΠΑ», επισημαίνει.
Η Επίτροπος για την Ασφάλεια στο Διαδίκτυο, Τζούλι Ίνμαν Γκραντ, ανησυχεί επίσης για την έλλειψη διαφάνειας σχετικά με τα δεδομένα που χρησιμοποιούν τα εργαλεία ΤΝ. Σε δήλωσή της, τόνισε ότι οι εταιρείες τεχνολογίας πρέπει να είναι διαφανείς σχετικά με τα δεδομένα εκπαίδευσής τους, να αναπτύξουν εργαλεία αναφοράς και να χρησιμοποιούν ποικιλόμορφα, ακριβή και αντιπροσωπευτικά δεδομένα στα προϊόντα τους.
«Η αδιαφάνεια στην ανάπτυξη και χρήση της γενετικής τεχνητής νοημοσύνης είναι εξαιρετικά προβληματική», ανέφερε. «Αυτό προκαλεί σοβαρά ερωτήματα για το κατά πόσο τα μεγάλα γλωσσικά μοντέλα (LLMs) μπορεί να ενισχύσουν ή ακόμη και να διευρύνουν επιβλαβείς προκαταλήψεις- όπως τα έμφυλα στερεότυπα και οι φυλετικές διακρίσεις.
«Με την ανάπτυξη αυτών των συστημάτων να συγκεντρώνεται στα χέρια λίγων εταιρειών, υπάρχει σοβαρός κίνδυνος ορισμένα στοιχεία, φωνές και προοπτικές να υποτιμηθούν ή να παραμεληθούν στα παραγόμενα αποτελέσματα» κατέληξε η Επίτροπος για την Ασφάλεια στο Διαδίκτυο.
ΠΗΓΗ: Guardian
Σχετικά Άρθρα
Δείτε επίσης