UNICEF: Η κακοποίηση μέσω deepfake εξακολουθεί να είναι κακοποίηση

Σε μάστιγα εξελίσσονται τα deepfakes -εικόνες, βίντεο ή ηχητικά αρχεία που δημιουργούνται ή παραποιούνται με χρήση εργαλείων ΑΙ

Διαδίκτυο © Freepik

«Η UNICEF ανησυχεί όλο και περισσότερο εξαιτίας αναφορών στην ταχεία αύξηση του όγκου εικόνων σεξουαλικού περιεχομένου, οι οποίες έχουν δημιουργηθεί με χρήση εργαλείων τεχνητής νοημοσύνης και συμπεριλαμβάνουν περιπτώσεις όπου ακόμα και πραγματικές φωτογραφίες παιδιών έχουν υποστεί επεξεργασία προσδίδοντάς τους σεξουαλικά χαρακτηριστικά.

Τα deepfakes -εικόνες, βίντεο ή ηχητικά αρχεία που δημιουργούνται ή παραποιούνται με χρήση εργαλείων τεχνητής νοημοσύνης (AI) και έχουν σχεδιαστεί για να φαίνονται αληθινά- χρησιμοποιούνται όλο και περισσότερο για την παραγωγή σεξουαλικού περιεχομένου που αφορά παιδιά, μεταξύ άλλων μέσω της «απογύμνωσης», όπου χρησιμοποιούνται εργαλεία τεχνητής νοημοσύνης για να αφαιρεθούν ή να τροποποιηθούν τα ρούχα στις φωτογραφίες, ώστε να δημιουργηθούν ψεύτικες γυμνές ή σεξουαλικές εικόνες.

Νέα στοιχεία επιβεβαιώνουν την κλίμακα αυτής της ταχέως αναπτυσσόμενης απειλής: σε μια μελέτη της UNICEF, της ECPAT και της INTERPOL σε 11 χώρες, τουλάχιστον 1,2 εκατομμύρια παιδιά αποκάλυψαν ότι οι εικόνες τους είχαν παραποιηθεί σε deepfakes ακατάλληλου σεξουαλικού περιεχομένου κατά το παρελθόν έτος. Σε ορισμένες χώρες, αυτό αντιπροσωπεύει 1 στα 25 παιδιά – το ισοδύναμο ενός παιδιού σε μια τυπική τάξη.

Τα ίδια τα παιδιά έχουν βαθιά συνείδηση αυτού του κινδύνου. Σε ορισμένες από τις χώρες που συμμετείχαν στη μελέτη, έως και τα δύο τρίτα των παιδιών δήλωσαν ότι ανησυχούν ότι η τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για τη δημιουργία ψεύτικων σεξουαλικών εικόνων ή βίντεο. Τα επίπεδα ανησυχίας ποικίλλουν σημαντικά μεταξύ των χωρών, υπογραμμίζοντας την επείγουσα ανάγκη για ισχυρότερα μέτρα ευαισθητοποίησης, πρόληψης και προστασίας.

Πρέπει να είμαστε σαφείς. Οι σεξουαλικές εικόνες παιδιών που δημιουργούνται ή καθίστανται αντικείμενο επεξεργασίας με τη χρήση εργαλείων τεχνητής νοημοσύνης αποτελούν υλικό σεξουαλικής κακοποίησης παιδιών (Child Sexual Abuse Material-CSAM). Η κακοποίηση μέσω deepfake είναι κακοποίηση και δεν υπάρχει τίποτα ψεύτικο στον πόνο που προκαλεί.

Όταν χρησιμοποιείται η εικόνα ή η ταυτότητα ενός παιδιού, το παιδί αυτό γίνεται άμεσα θύμα. Ακόμη και χωρίς αναγνωρίσιμο θύμα, το υλικό σεξουαλικής κακοποίησης παιδιών που δημιουργείται με τεχνητή νοημοσύνη κανονικοποιεί τη σεξουαλική εκμετάλλευση των παιδιών, τροφοδοτεί τη ζήτηση για κακοποιητικό περιεχόμενο και γεννά σημαντικές προκλήσεις για τις διωκτικές αρχές όσον αφορά τον εντοπισμό και την προστασία των παιδιών που χρειάζονται βοήθεια.

Η UNICEF επικροτεί τις προσπάθειες των προγραμματιστών τεχνητής νοημοσύνης που εφαρμόζουν προσεγγίσεις ασφάλειας στον σχεδιασμό και ισχυρά μέτρα προστασίας για την πρόληψη της κατάχρησης των συστημάτων τους. Ωστόσο, το τοπίο παραμένει άνισο και πάρα πολλά μοντέλα τεχνητής νοημοσύνης δεν αναπτύσσονται με επαρκείς διασφαλίσεις. Οι κίνδυνοι μπορούν να επιδεινωθούν όταν τα δημιουργικά εργαλεία τεχνητής νοημοσύνης ενσωματώνονται απευθείας σε πλατφόρμες κοινωνικών μέσων όπου οι παραποιημένες εικόνες διαδίδονται γρήγορα.

Η UNICEF καλεί επειγόντως να ληφθούν τα ακόλουθα μέτρα για την αντιμετώπιση της αυξανόμενης απειλής που αποτελεί το υλικό σεξουαλικής κακοποίησης παιδιών που παράγεται από τεχνητή νοημοσύνη:

  • Όλες οι κυβερνήσεις να αναθεωρήσουν τους ορισμούς του υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) ώστε να περιλαμβάνουν περιεχόμενο που παράγεται από τεχνητή νοημοσύνη και να ποινικοποιήσουν τη δημιουργία, την προμήθεια, την κατοχή και τη διανομή του.
  • Οι προγραμματιστές τεχνητής νοημοσύνης να εφαρμόζουν προσεγγίσεις ασφάλειας από τα πρώτα στάδια σχεδιασμού και ισχυρά μέτρα προστασίας για την πρόληψη της κατάχρησης μοντέλων τεχνητής νοημοσύνης.
  • Οι ψηφιακές εταιρείες και πλατφόρμες να αποτρέπουν την κυκλοφορία υλικού σεξουαλικής κακοποίησης παιδιών που δημιουργείται με τεχνητή νοημοσύνη – και όχι απλώς να το αφαιρούν μετά την δημοσίευσή του – και να ενισχύσουν τον έλεγχο του περιεχομένου με επενδύσεις σε τεχνολογίες ανίχνευσης, ώστε το υλικό αυτό να μπορεί να αφαιρείται αμέσως – και όχι ημέρες μετά την αναφορά από το θύμα ή τους εκπροσώπους του.