Σάλος στην Ινδία: Ψεύτικα βίντεο που δημιουργήθηκαν μέσω AI προκαλούν ανησυχίες για τις εκλογές
Δύο κορυφαίοι ηθοποιοί του Μπόλιγουντ εικονίζονται να επικρίνουν τον πρωθυπουργό της χώρας, Ναρέντρα Μόντι🕛 χρόνος ανάγνωσης: 2 λεπτά ┋ 🗣️ Ανοικτό για σχολιασμό
Σε ψεύτικα βίντεο που έχουν γίνει viral στο Ίντερνετ, δύο από τους κορυφαίους ηθοποιούς του Μπόλιγουντ εικονίζονται να επικρίνουν τον πρωθυπουργό Ναρέντρα Μόντι και να ζητούν από τον κόσμο να ψηφίσει το αντιπολιτευόμενο κόμμα του Κογκρέσου στις γενικές εκλογές που διεξάγονται στη χώρα.
Σε ένα βίντεο 30 δευτερολέπτων, στο οποίο εικονίζεται ο Ααμίρ Χαν, και σε ένα άλλο 41 δευτερολέπτων με τον Ρανβίρ Σινγκ, οι δύο ηθοποιοί του Μπόλιγουντ φέρονται να λένε πως ο Μόντι δεν εκπλήρωσε τις προεκλογικές υποσχέσεις του και δεν αντιμετώπισε κρίσιμα οικονομικά ζητήματα στις δύο θητείες του στην πρωθυπουργία.
Αμφότερα τα βίντεο αυτά, που έχουν δημιουργηθεί με τεχνητή νοημοσύνη, τελειώνουν με το προεκλογικό σύμβολο και σύνθημα του Κογκρέσου: «Ψηφίστε Δικαιοσύνη, Ψηφίστε Κογκρέσο».
Tα deepfakes χρησιμοποιούνται όλο και περισσότερο σε εκλογές
Η διάδοσή τους υπογραμμίζει το ρόλο που μπορεί να διαδραματίσει τέτοιο δημιουργημένο από την τεχνητή νοημοσύνη περιεχόμενο στις ινδικές εκλογές - μαμούθ που άρχισαν την Παρασκευή και θα συνεχισθούν μέχρι τον Ιούνιο. Η τεχνητή νοημοσύνη και τα ψεύτικα βίντεο που έχουν δημιουργηθεί από την τεχνητή νοημοσύνη, τα λεγόμενα deepfakes, χρησιμοποιούνται όλο και περισσότερο σε εκλογές αλλού στον κόσμο, μεταξύ άλλων στις ΗΠΑ, το Πακιστάν και την Ινδονησία.
Η προεκλογική εκστρατεία στην Ινδία επικεντρωνόταν για καιρό σε δημόσιες συγκεντρώσεις και σε μια προσέγγιση πόρτα-πόρτα, ωστόσο η εντατική χρήση των WhatsApp και Facebook ως εργαλείων προεκλογικής εκστρατείας άρχισε το 2019. Οι φετινές γενικές εκλογές, στις οποίες ο Μόντι αναμένεται να εξασφαλίσει μια τρίτη θητεία, είναι οι πρώτες στις οποίες χρησιμοποιείται η τεχνητή νοημοσύνη.
A doctored video of actor Ranveer Singh is being shared by users in which he is criticizing PM Modi. The original video -- an interview of the actor by ANI in Varanasi -- has been edited with voice-cloning technology. WATCH #AltNewsFactCheckpic.twitter.com/sSY8xn9GAp
— Mohammed Zubair (@zoo_bear) April 19, 2024
Τι λένε οι ηθοποιοί
Οι δύο ηθοποιοί έχουν δηλώσει πως τα βίντεο είναι ψεύτικα. Το Facebook, το X και τουλάχιστον οκτώ ιστότοποι που ελέγχουν τα γεγονότα έχουν ανακοινώσει πως είναι πλαστά, κάτι που επιβεβαίωσε και έλεγχος από το Ρόιτερς.
Το Ρόιτερς δεν ήταν σε θέση να διαπιστώσει ποιος δημιούργησε τα βίντεο. Ο Χαν εξέφρασε την ανησυχία του για τα πλαστά βίντεο που έγιναν viral και η ομάδα του Σινγκ εξετάζει την υπόθεση, σύμφωνα με εκπρόσωπο και των δύο ηθοποιών. Ο Σινγκ έγραψε την Παρασκευή στη X: «Φίλοι, προσοχή στα deepfakes».
Το γραφείο του Μόντι και ο επικεφαλής πληροφορικής του κόμματός του, του Μπαρατίγια Τζανάτα, δεν απάντησαν σε αιτήματα του Ρόιτερς για να σχολιάσουν.
Το σχέδιο της Τουρκίας για τη νέα κατάσταση στη Συρία: Η Άγκυρα αναλαμβάνει τον ρόλο του προστάτη - Τα μηνύματα στις ΗΠΑ
Γεράσιμος Χουλιάρας για σεισμό στην Τριχωνίδα: Η λίμνη έχει γίνει από πολλά ρήγματα - Έχει δώσει και 6 Ρίχτερ
Πόσο θα αλλάξει το dating τα επόμενα χρόνια η τεχνητή νοημοσύνη – Οι καινοτομίες που έρχονται
«Τρίμπαλο» και τρίποντο για τον ΠΑΟΚ που παρέμεινε σε απόσταση αναπνοής απ' την κορυφή
Live όλες οι εξελίξεις λεπτό προς λεπτό, με την υπογραφή του www.ethnos.gr