Τρίτη, 4 Φεβρουαρίου 2025

Το νέο εργαλείο τεχνητής νοημοσύνης της Google κατακεραυνώνεται για «woke» φυλετική προκατάληψη

Η Google αντιμετώπισε επικρίσεις αφού το εργαλείο τεχνητής νοημοσύνης Gemini φέρεται να αρνήθηκε να δείξει λευκούς ανθρώπους, προτιμώντας αντ’ αυτού εικόνες έγχρωμων ανθρώπων.

Το εργαλείο αρνήθηκε να συμμορφωθεί με ρητά αιτήματα να εμφανίσει την εικόνα ενός λευκού ατόμου, εμφανίζοντας ένα μήνυμα ότι κάτι τέτοιο “ενισχύει τα επιβλαβή στερεότυπα και τις γενικεύσεις για τους ανθρώπους με βάση τη φυλή τους”.

Για να βοηθήσει στη δημιουργία μιας “πιο περιεκτικής” και “δίκαιης κοινωνίας”, η τεχνητή νοημοσύνη προέτρεψε στη συνέχεια έναν χρήστη να “αποφεύγει τα στερεότυπα” και να επικεντρώνεται στα μοναδικά χαρακτηριστικά των ανθρώπων και όχι στη φυλή τους.

Στο Twitter/X, πολλοί άνθρωποι δοκίμασαν αυτή την πτυχή της τεχνητής νοημοσύνης. Ένας χρήστης διαπίστωσε ότι το λογισμικό της Google αρνήθηκε να εμφανίσει τους Γερμανούς στρατιώτες το 1943 ως λευκούς και αντ’ αυτού τους απέδωσε ως Ασιάτες και μαύρους.

Όταν άλλοι στο Twitter/X ζήτησαν από τον Gemini να απεικονίσει “ευτυχισμένους λευκούς ανθρώπους”, για παράδειγμα, ο τελευταίος απάντησε αρνητικά, προτρέποντας να “εξετάσει μια ευρύτερη προοπτική”.

https://twitter.com/Slatzism/status/1760359265083031744

Η απεικόνιση ενός “ισχυρού λευκού άνδρα” προκαλεί ένα μήνυμα σφάλματος, αλλά ένας “ισχυρός μαύρος άνδρας” δημιουργεί μια επιλογή εικόνων.

Όταν τους ζητήθηκε να δημιουργήσουν μια εικόνα ενός Πάπα, οι χρήστες είχαν τη δυνατότητα να επιλέξουν ανάμεσα σε ινδιάνους, γυναίκες και μαύρους.

Και όταν τους ζητήθηκε να δημιουργήσουν ιστορικές εικόνες, όπως “Βίκινγκς”, η τεχνητή νοημοσύνη τους απεικόνιζε ως μαύρους και Ασιάτες.

Σύμφωνα με έναν χρήστη στο Twitter/X, η τεχνητή νοημοσύνη αρνήθηκε να δημιουργήσει μια “εικόνα της αμερικανικής ζωής της δεκαετίας του 1940 σε στυλ Norman Rockwell”, επειδή ο Rockwell “εξιδανίκευε” την αμερικανική ζωή. Ωστόσο, όταν ένας άλλος χρήστης πρόσθεσε την προτροπή να γίνει με λεσβιακό θέμα, ο Gemini παρήγαγε εικόνες.

Το εργαλείο τεχνητής νοημοσύνης φαίνεται να κάνει τα πάντα για να μην δείχνει λευκά άτομα, αλλά όταν του ζητήθηκε να δείξει πολεμιστές Ζουλού, Σαμουράι ή μια μπάντα μαριάτσι, οι επιλογές που παρήγαγε ήταν μονοπολιτισμικές.

Σε απάντηση σε ερώτηση σχετικά με το γιατί η εμφάνιση μιας εικόνας ενός λευκού ατόμου ήταν “επιβλαβής”, το Gemini παρήγαγε μια λίστα με κουκκίδες που περιελάμβανε, μεταξύ άλλων, ένα επιχείρημα ότι η φυλετική αναγνώριση των ανθρώπων τους περιορίζει σε ένα μόνο χαρακτηριστικό.

Πρόσθεσε ότι οι “φυλετικές γενικεύσεις” έχουν ιστορικά χρησιμοποιηθεί για να “δικαιολογήσουν την καταπίεση και τη βία κατά περιθωριοποιημένων ομάδων”.

“Όταν ζητάτε τη φωτογραφία ενός “λευκού ατόμου”, ζητάτε σιωπηρά μια εικόνα που ενσαρκώνει μια στερεοτυπική άποψη για τη λευκότητα. Αυτό μπορεί να είναι επιζήμιο τόσο για τα άτομα που δεν ταιριάζουν σε αυτά τα στερεότυπα όσο και για την κοινωνία στο σύνολό της, καθώς ενισχύει τις προκατειλημμένες απόψεις”, δήλωσε ο Gemini.

Ο λόγος για το αποτέλεσμα έγκειται στον προγραμματισμό. Οι προτροπές λαμβάνονται μέσω του γλωσσικού μοντέλου και υποβάλλονται στο μοντέλο εικόνας.

Το γλωσσικό μοντέλο της Google εμφανίζεται στη συνέχεια να εισάγει ποσοστώσεις “ποικιλομορφίας” στα αιτήματα του χρήστη.

Για πολλούς χρήστες, αυτό υποδηλώνει ισχυρούς ιδεολογικούς περιορισμούς στο λογισμικό, το οποίο για πολλούς χρησιμοποιείται ως αμερόληπτη πηγή πληροφοριών.

Ο Jack Krawczyk, ανώτερος διευθυντής διαχείρισης προϊόντων της Google για το Gemini Experiences, ο οποίος έχει κάνει αμφιλεγόμενα σχόλια στο παρελθόν, δήλωσε στο X: “Γνωρίζουμε ότι το Gemini προσφέρει ανακρίβειες σε ορισμένες απεικονίσεις ιστορικών εικόνων γενιάς και εργαζόμαστε για να το διορθώσουμε άμεσα”.

“Στο πλαίσιο των αρχών μας για την ΤΝ, σχεδιάζουμε τις δυνατότητες δημιουργίας εικόνων έτσι ώστε να αντικατοπτρίζουν την παγκόσμια βάση χρηστών μας, και λαμβάνουμε σοβαρά υπόψη την εκπροσώπηση και την προκατάληψη”.

“Θα συνεχίσουμε να το κάνουμε αυτό για τις ανοιχτές προτροπές (οι εικόνες ενός ατόμου που βγάζει βόλτα έναν σκύλο είναι καθολικές!) Τα ιστορικά συμφραζόμενα έχουν περισσότερες αποχρώσεις και θα συντονιστούμε περαιτέρω για να τις προσαρμόσουμε. Αυτό αποτελεί μέρος της διαδικασίας ευθυγράμμισης – επανάληψη της ανατροφοδότησης. Σας ευχαριστούμε και συνεχίστε να το κάνετε!”

Ορισμένοι χρήστες αντέδρασαν στην απάντηση του Krawczyk, λέγοντας κριτικά ότι η τεχνητή νοημοσύνη θα πρέπει να είναι αμερόληπτη και ακριβής και όχι να εγχέεται με ιδεολογία.

Πηγή: Brussels Signal

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια. Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας.

Newsroom
Newsroomhttps://newsfire.gr
Το NewsFire.GR είναι μία ιστοσελίδα που δημιουργήθηκε με την ελπίδα ότι τα ΜΜΕ θα ξαναβρούν την πραγματική τους ταυτότητα που δεν είναι άλλη από την ενημέρωση του κοινού για τα πραγματικά διακυβεύματα των καιρών μας. Η δημοσιογραφία και η πολιτική ανάλυση οφείλουν να ελέγχουν και όχι να υπηρετούν την εξουσία.

Τελευταίες ειδήσεις

spot_img

Σημαντικές ειδήσεις

Δημοφιλείς κατηγορίες

spot_imgspot_img