Στο TikTok έχουν γίνει viral βίντεο που δημιουργήθηκαν με τεχνητή νοημοσύνη, παρουσιάζοντας γιαγιάδες να συλλαμβάνονται από την αστυνομία για φαινομενικά αθώες πράξεις, όπως το να κλέβουν ένα μήλο.
Αυτά τα AI deepfake clips, αν και αστεία, εγείρουν ανησυχίες για την παραπληροφόρηση, καθώς πολλοί χρήστες τα θεωρούν αληθινά.
Η έλλειψη εξοικείωσης με τις νέες τεχνολογίες καθιστά το φαινόμενο επικίνδυνο, καθώς τα deepfakes μπορούν να χρησιμοποιηθούν για ψευδείς ειδήσεις και χειραγώγηση.
Οι ειδικοί προειδοποιούν ότι η τεχνητή νοημοσύνη μπορεί να δημιουργήσει ψευδείς πολιτικές ή κοινωνικές ειδήσεις, επηρεάζοντας την κοινή γνώμη.
Πιο αναλυτικά
Viral έχουν γίνει στο TikTok τις τελευταίες μέρες βίντεο AI (Τεχνητής Νοημοσύνης) με γιαγιάδες που συλλαμβάνονται από την αστυνομία επειδή υποτίθεται ότι κλέβουν ένα μήλο, απλώνουν τα ρούχα τους μπροστά στην Βουλή ή κάνουν διάφορες παρανομίες.
Η παρακολούθηση αυτών των ψεύτικων βίντεο που έχουν φτιαχτεί με την βοήθεια τεχνητής νοημοσύνης, έχει γίνει η καινούρια αγαπημένη ασχολία των χρηστών που αντιδρούν είτε με χιουμοριστικά σχόλια είτε με σχόλια που κακοχαρακτηρίζουν τους αστυνομικούς που βάζουν χειροπέδες στις γιαγιάδες γιατί θεωρούν ότι τα βίντεο είναι αληθινά.
Τα λεγόμενα AI deepfake clips, κατασκευάζονται με τη χρήση εξελιγμένων αλγορίθμων και παρουσιάζουν με ρεαλιστικό τρόπο ανθρώπους, εκφράσεις και σκηνές που δεν έγιναν ποτέ. Μπορεί στην συγκεκριμένη περίπτωση να δημιουργούν ένα αστείο θέαμα, όμως ανησυχητικό είναι το γεγονός ότι ο καθένας μπορεί να φτιάξει ένα τέτοιο βίντεο με περιεχόμενο που μπορεί σε άλλες περιπτώσεις να είναι προσβλητικό ή και επικίνδυνο.
Για παράδειγμα αυτή «μόδα» έχει αναπτυχθεί κυρίως στο TikTok και το Instagram, όπου καθημερινά αναρτώνται εκατοντάδες τέτοια βίντεο. Κάποια βίντεο έχουν την ένδειξη ότι είναι AI, κάποια άλλα όμως όχι, με αποτέλεσμα ένα μεγάλο ποσοστό χρηστών που δεν είναι ιδιαίτερα εξοικειωμένοι με το ίντερνετ, να πιστεύουν ότι είναι αληθινά.
Στα σχόλια μάλιστα άνθρωποι που δεν έχουν καταλάβει ότι αυτά τα σχόλια είναι ψεύτικα γράφουν για παράδειγμα: «Ρε παιδιά τι έχουν πάθει τις τελευταίες μέρες με τις γιαγιάδες και τις κυνηγάνε» ή «σιγά δεν έκανε κάτι κακό γιατί να της βάλουν χειροπέδες ότι νάνε οι αστυνόμοι».
@greekaislop Για δύο μαρμελάδες ρε κτήνος #greek #fyp #fy #greekpolice #bodycam
@greekaislop Ήθελε ένα φρούτο η γυναίκα #fyp #fy #greek #greekpolice
Άλλοι που έχουν γνωρίζουν ότι τα βίντεο είναι ψεύτικα γράφουν χιουμοριστικά: «Έτυχε και ήμουν εκεί. Έβρισα τους αστυνομικούς γιατί ήταν άδικο. Και τώρα είμαι με τη γιαγιά στη φυλακή».
@nexuspodsvendors Grandma steals #sora #soraai #chatgpt #bodycam #shoplifter
Το φαινόμενο αυτό βέβαια εμφανίζει ένα μεγάλο πρόβλημα, την έλλειψη εξοικείωσης μεγάλου μέρους του πληθυσμού με τα εργαλεία τεχνητής νοημοσύνης και τις νέες τεχνολογίες.
@nexuspodsvendors Grandma steals #sora #soraai #chatgpt #bodycam #shoplifter
Οι ειδικοί προειδοποιούν ότι τα deepfakes δεν αποτελούν απλώς παιχνίδι, αλλά μπορεί να γίνει επικίνδυνο εργαλείο παραπληροφόρησης και ψυχολογικής χειραγώγησης.
@greekaislop Για δύο μαρμελάδες ρε κτήνος #greek #fyp #fy #greekpolice #bodycam
Η τεχνητή νοημοσύνη μπορεί να δημιουργήσει ψευδείς ειδήσεις πολιτικές ή κοινωνικές, με εικόνες και λόγια που ποτέ δεν ειπώθηκαν.