Σφοδρή κριτική δέχεται ο δημόσιος ραδιοτηλεοπτικός φορέας της Γερμανίας, ZDF, για ένα επεισόδιο του κεντρικού του ειδησεογραφικού προγράμματος, «heute journal».
Χρησιμοποίησε ένα βίντεο δημιουργημένο από τεχνητή νοημοσύνη για να… αναδείξει την σκληρότητα(!!!) των αξιωματικών της Υπηρεσίας Μετανάστευσης και Τελωνείων των ΗΠΑ (ICE).
Το επίμαχο βίντεο, το οποίο έφερε το λογότυπο του εργαλείου Sora της OpenAI, χρησιμοποιήθηκε χωρίς να επισημανθεί ότι πρόκειται για συνθετικό περιεχόμενο, με αποτέλεσμα να προκληθούν κατηγορίες για δημοσιογραφική ανευθυνότητα και να αναζωπυρωθεί η συζήτηση γύρω από τη χρήση της τεχνητής νοημοσύνης στην ενημέρωση.
Το περιστατικό συνέβη κατά τη διάρκεια της εκπομπής του heute journal στις 15 Φεβρουαρίου. Η παρουσιάστρια, Dunja Hayali, εισήγαγε ένα τμήμα που ασκούσε κριτική στις πρακτικές της ICE υπό την προεδρία του Ντόναλντ Τραμπ, αναφέροντας ότι οι αξιωματικοί «παίρνουν γονείς μπροστά στα μάτια των παιδιών τους».
Για να ενισχύσει τους ισχυρισμούς περί υπερβολικής βίας κατά τη διάρκεια συλλήψεων και απελάσεων, η εκπομπή έπαιξε ένα σύντομο βίντεο με δραματικές σκηνές.
Οι τηλεθεατές παρατήρησαν γρήγορα το εμφανές λογότυπο Sora στο βίντεο, κάτι που υποδήλωνε ότι το υλικό είχε δημιουργηθεί από την πλατφόρμα της OpenAI και δεν είχε καταγραφεί στην πραγματικότητα.
Μεγάλη αντίδραση
Ανεξάρτητες ιστοσελίδες, όπως το Apollo News, το NIUS και το ÖRR Blog, ήταν από τις πρώτες που επισήμαναν τη διαφορά, δείχνοντας ορατά ελαττώματα της τεχνητής νοημοσύνης, όπως ασυνέπειες στις στολές, τα χέρια και τα λογότυπα που μόνο ελάχιστα θύμιζαν τα πραγματικά διακριτικά της ICE.
Η συμπερίληψη του βίντεο φάνηκε σκόπιμη, καθώς ταυτιζόταν με την αφήγηση της αναφοράς, ωστόσο δεν υπήρχε καμία επιγραφή στην οθόνη που να το προσδιορίζει ως τεχνητό.
Μετά από δημόσιες αντιδράσεις και δημοσιογραφική επιτήρηση, το ZDF αποσύρει το πλήρες επεισόδιο από το διαδικτυακό του αρχείο και το κανάλι του στο YouTube, προτού το επεξεργαστεί και το επαναφορτώσει χωρίς τα ψεύτικα βίντεο, προσθέτοντας την σημείωση: «Το βίντεο τροποποιήθηκε αργότερα για συντακτικούς λόγους».
Απαντώντας σε ερωτήσεις από το Apollo News, εκπρόσωπος του ZDF παραδέχθηκε ότι ο φορέας χρησιμοποίησε σκόπιμα το υλικό για εικονογράφηση, προσδιορίζοντας ότι «δημιουργείται ένα κλίμα φόβου με πραγματικές και AI-δημιουργημένες εικόνες», αλλά παραδέχθηκε ότι υπήρξε αποτυχία στην επισημάνση, χαρακτηρίζοντας την παράλειψη ως αμέλεια.
Το ZDF υποστήριξε ότι η συνολική αναφορά του τμήματος για τις επιχειρήσεις της ICE παρέμεινε βασισμένη σε τεκμηριωμένες περιπτώσεις, αν και οι επικριτές υποστήριξαν ότι το συνθετικό βίντεο υπονόμευσε την αξιοπιστία του παρουσιάζοντας κατασκευασμένα οπτικά στοιχεία ως αντιπροσωπευτικά.
Ιδιαίτερα αμήχανη είναι η κατάσταση, καθώς η Hayali είχε προειδοποιήσει τους θεατές ότι δεν είναι όλα τα βίντεο που δημοσιεύονται στα κοινωνικά δίκτυα σχετικά με τις αποστολές της ICE αληθινά, μόνο για να χρησιμοποιήσει ο ίδιος ο φορέας τέτοιες εικόνες που δημιουργήθηκαν από AI.
Η υπόθεση έχει προκαλέσει σφοδρή κριτική από συντηρητικούς σχολιαστές και παρατηρητές των ΜΜΕ, οι οποίοι κατηγόρησαν το ZDF ότι προσπαθεί να υπερβάλει τη σκληρότητα της αμερικανικής πολιτικής μετανάστευσης για να ταιριάξει με μια αντιαμερικανική αφήγηση.
Αξιοσημείωτο είναι ότι δεν είναι η πρώτη φορά που η γενετική τεχνητή νοημοσύνη σχετίζεται με την αναφορά για την ICE. Από τότε που το εργαλείο Sora της OpenAI έγινε ευρέως διαθέσιμο στα τέλη του 2025, οι πλατφόρμες κοινωνικής δικτύωσης έχουν πλημμυρίσει από συνθετικά βίντεο που υποτίθεται ότι δείχνουν ακραίες επιχειρήσεις της ICE, συχνά με δραματικές συλλήψεις σε δημόσιους χώρους.
Δημοσιογράφοι από οργανισμούς όπως το AFP και το Reuters έχουν επανειλημμένα αναγνωρίσει τέτοια βίντεο ως δημιουργίες AI, πολλά από τα οποία φέρουν λογότυπα της Sora ή παρουσιάζουν κλασικά ελαττώματα δημιουργίας, όπως αφύσικες κινήσεις.
Ψεύτικα βίντεο κατασκευασμένα με ΑΙ προκαλούν οργή
Στις ΗΠΑ, βίντεο που έχουν δημιουργηθεί από τη Sora έχουν απεικονίσει επιχειρήσεις σε σούπερ μάρκετ και στους δρόμους, προκαλώντας τόσο οργή όσο και σκεπτικισμό σχετικά με τις μαζικές απελάσεις.
Κατευθυντήριες γραμμές από φορείς όπως η Ευρωπαϊκή Ένωση Ραδιοτηλεόρασης τονίζουν τη σαφή επισημάνση του περιεχομένου που έχει δημιουργηθεί από AI για να διατηρηθεί η εμπιστοσύνη, ωστόσο η εφαρμογή τους παραμένει ασυνεπής.