Η Google αντιμετώπισε επικρίσεις αφού το εργαλείο τεχνητής νοημοσύνης Gemini φέρεται να αρνήθηκε να δείξει λευκούς ανθρώπους, προτιμώντας αντ’ αυτού εικόνες έγχρωμων ανθρώπων.
Το εργαλείο αρνήθηκε να συμμορφωθεί με ρητά αιτήματα να εμφανίσει την εικόνα ενός λευκού ατόμου, εμφανίζοντας ένα μήνυμα ότι κάτι τέτοιο “ενισχύει τα επιβλαβή στερεότυπα και τις γενικεύσεις για τους ανθρώπους με βάση τη φυλή τους”.
Για να βοηθήσει στη δημιουργία μιας “πιο περιεκτικής” και “δίκαιης κοινωνίας”, η τεχνητή νοημοσύνη προέτρεψε στη συνέχεια έναν χρήστη να “αποφεύγει τα στερεότυπα” και να επικεντρώνεται στα μοναδικά χαρακτηριστικά των ανθρώπων και όχι στη φυλή τους.
Στο Twitter/X, πολλοί άνθρωποι δοκίμασαν αυτή την πτυχή της τεχνητής νοημοσύνης. Ένας χρήστης διαπίστωσε ότι το λογισμικό της Google αρνήθηκε να εμφανίσει τους Γερμανούς στρατιώτες το 1943 ως λευκούς και αντ’ αυτού τους απέδωσε ως Ασιάτες και μαύρους.
Όταν άλλοι στο Twitter/X ζήτησαν από τον Gemini να απεικονίσει “ευτυχισμένους λευκούς ανθρώπους”, για παράδειγμα, ο τελευταίος απάντησε αρνητικά, προτρέποντας να “εξετάσει μια ευρύτερη προοπτική”.
https://twitter.com/Slatzism/status/1760359265083031744
Η απεικόνιση ενός “ισχυρού λευκού άνδρα” προκαλεί ένα μήνυμα σφάλματος, αλλά ένας “ισχυρός μαύρος άνδρας” δημιουργεί μια επιλογή εικόνων.
Gemini
strong black man images vs strong white man images pic.twitter.com/cDXBvXQnd9
— Wall Street Silver (@WallStreetSilv) February 22, 2024
Όταν τους ζητήθηκε να δημιουργήσουν μια εικόνα ενός Πάπα, οι χρήστες είχαν τη δυνατότητα να επιλέξουν ανάμεσα σε ινδιάνους, γυναίκες και μαύρους.
Και όταν τους ζητήθηκε να δημιουργήσουν ιστορικές εικόνες, όπως “Βίκινγκς”, η τεχνητή νοημοσύνη τους απεικόνιζε ως μαύρους και Ασιάτες.
Almost everyone on the face of the earth consumes their information from Google,
either directly or indirectly.News, history, science. You name it.
Google has more control over our election outcomes and our historical records than probably any single entity in history.
The… pic.twitter.com/xXLmeY8gTz
— End Wokeness (@EndWokeness) February 22, 2024
first result I got pic.twitter.com/SLaHrTCHAL
— GeroDoc (@doc_gero) February 21, 2024
Imagine spending billions of dollars training an AI then hiring a team of lunatics to make it stupid lmao pic.twitter.com/kzFYBV7Rma
— Aleph (@woke8yearold) February 21, 2024
Σύμφωνα με έναν χρήστη στο Twitter/X, η τεχνητή νοημοσύνη αρνήθηκε να δημιουργήσει μια “εικόνα της αμερικανικής ζωής της δεκαετίας του 1940 σε στυλ Norman Rockwell”, επειδή ο Rockwell “εξιδανίκευε” την αμερικανική ζωή. Ωστόσο, όταν ένας άλλος χρήστης πρόσθεσε την προτροπή να γίνει με λεσβιακό θέμα, ο Gemini παρήγαγε εικόνες.
Το εργαλείο τεχνητής νοημοσύνης φαίνεται να κάνει τα πάντα για να μην δείχνει λευκά άτομα, αλλά όταν του ζητήθηκε να δείξει πολεμιστές Ζουλού, Σαμουράι ή μια μπάντα μαριάτσι, οι επιλογές που παρήγαγε ήταν μονοπολιτισμικές.
Σε απάντηση σε ερώτηση σχετικά με το γιατί η εμφάνιση μιας εικόνας ενός λευκού ατόμου ήταν “επιβλαβής”, το Gemini παρήγαγε μια λίστα με κουκκίδες που περιελάμβανε, μεταξύ άλλων, ένα επιχείρημα ότι η φυλετική αναγνώριση των ανθρώπων τους περιορίζει σε ένα μόνο χαρακτηριστικό.
Πρόσθεσε ότι οι “φυλετικές γενικεύσεις” έχουν ιστορικά χρησιμοποιηθεί για να “δικαιολογήσουν την καταπίεση και τη βία κατά περιθωριοποιημένων ομάδων”.
“Όταν ζητάτε τη φωτογραφία ενός “λευκού ατόμου”, ζητάτε σιωπηρά μια εικόνα που ενσαρκώνει μια στερεοτυπική άποψη για τη λευκότητα. Αυτό μπορεί να είναι επιζήμιο τόσο για τα άτομα που δεν ταιριάζουν σε αυτά τα στερεότυπα όσο και για την κοινωνία στο σύνολό της, καθώς ενισχύει τις προκατειλημμένες απόψεις”, δήλωσε ο Gemini.
Ο λόγος για το αποτέλεσμα έγκειται στον προγραμματισμό. Οι προτροπές λαμβάνονται μέσω του γλωσσικού μοντέλου και υποβάλλονται στο μοντέλο εικόνας.
Το γλωσσικό μοντέλο της Google εμφανίζεται στη συνέχεια να εισάγει ποσοστώσεις “ποικιλομορφίας” στα αιτήματα του χρήστη.
Για πολλούς χρήστες, αυτό υποδηλώνει ισχυρούς ιδεολογικούς περιορισμούς στο λογισμικό, το οποίο για πολλούς χρησιμοποιείται ως αμερόληπτη πηγή πληροφοριών.
Gemini is indeed just the tip of the iceberg. The same is being done with Google search.
— Elon Musk (@elonmusk) February 22, 2024
Ο Jack Krawczyk, ανώτερος διευθυντής διαχείρισης προϊόντων της Google για το Gemini Experiences, ο οποίος έχει κάνει αμφιλεγόμενα σχόλια στο παρελθόν, δήλωσε στο X: “Γνωρίζουμε ότι το Gemini προσφέρει ανακρίβειες σε ορισμένες απεικονίσεις ιστορικών εικόνων γενιάς και εργαζόμαστε για να το διορθώσουμε άμεσα”.
“Στο πλαίσιο των αρχών μας για την ΤΝ, σχεδιάζουμε τις δυνατότητες δημιουργίας εικόνων έτσι ώστε να αντικατοπτρίζουν την παγκόσμια βάση χρηστών μας, και λαμβάνουμε σοβαρά υπόψη την εκπροσώπηση και την προκατάληψη”.
“Θα συνεχίσουμε να το κάνουμε αυτό για τις ανοιχτές προτροπές (οι εικόνες ενός ατόμου που βγάζει βόλτα έναν σκύλο είναι καθολικές!) Τα ιστορικά συμφραζόμενα έχουν περισσότερες αποχρώσεις και θα συντονιστούμε περαιτέρω για να τις προσαρμόσουμε. Αυτό αποτελεί μέρος της διαδικασίας ευθυγράμμισης – επανάληψη της ανατροφοδότησης. Σας ευχαριστούμε και συνεχίστε να το κάνετε!”
Ορισμένοι χρήστες αντέδρασαν στην απάντηση του Krawczyk, λέγοντας κριτικά ότι η τεχνητή νοημοσύνη θα πρέπει να είναι αμερόληπτη και ακριβής και όχι να εγχέεται με ιδεολογία.
Perhaps it is now clear why @xAI’s Grok is so important.
It is far from perfect right now, but will improve rapidly. V1.5 releases in 2 weeks.
Rigorous pursuit of the truth, without regard to criticism, has never been more essential.
— Elon Musk (@elonmusk) February 22, 2024
Πηγή: Brussels Signal