ΝΕΑ ΥΟΡΚΗ — Ο ήδη ανησυχητικός πολλαπλασιασμός εικόνων σεξουαλικής κακοποίησης παιδιών στο Διαδίκτυο θα μπορούσε να επιδεινωθεί εάν δεν γίνει τίποτα για τον έλεγχο των εργαλείων τεχνητής νοημοσύνης που δημιουργούν ψεύτικες φωτογραφίες, προειδοποίησε την Τρίτη μια υπηρεσία παρακολούθησης.
Σε γραπτή έκθεση, το Ίδρυμα Internet Watch Foundation με έδρα το Ηνωμένο Βασίλειο προτρέπει τις κυβερνήσεις και τους παρόχους τεχνολογίας να δράσουν γρήγορα προτού μια πλημμύρα εικόνων σεξουαλικής κακοποίησης παιδιών που δημιουργούνται από την τεχνητή νοημοσύνη κατακλύσει τους ερευνητές επιβολής του νόμου και διευρύνει σημαντικά τη δεξαμενή των πιθανών θυμάτων.
«Δεν μιλάμε για τη ζημιά που θα μπορούσε να προκαλέσει», είπε ο Dan Sexton, επικεφαλής τεχνολογίας της ομάδας παρακολούθησης. «Αυτό συμβαίνει αυτή τη στιγμή και πρέπει να αντιμετωπιστεί τώρα».
Σε μια πρώτη στο είδος του υπόθεση στη Νότια Κορέα, ένας άνδρας καταδικάστηκε τον Σεπτέμβριο σε δυόμισι χρόνια φυλάκισης για χρήση τεχνητής νοημοσύνης για τη δημιουργία 360 εικονικών εικόνων κακοποίησης παιδιών, σύμφωνα με το περιφερειακό δικαστήριο του Μπουσάν. , στα νοτιοανατολικά της χώρας. .
Σε ορισμένες περιπτώσεις, τα παιδιά χρησιμοποιούν αυτά τα εργαλεία το ένα πάνω στο άλλο. Σε ένα σχολείο στη νοτιοδυτική Ισπανία, η αστυνομία ερεύνησε την υποτιθέμενη χρήση μιας εφαρμογής τηλεφώνου από εφήβους για να κάνουν τους ντυμένους συμμαθητές τους να εμφανίζονται γυμνοί στις φωτογραφίες.
Η έκθεση εκθέτει μια σκοτεινή πλευρά του αγώνα κατασκευή γενετικών συστημάτων AI που επιτρέπουν στους χρήστες να περιγράψουν με λέξεις αυτό που θέλουν να παράγουν – από μηνύματα ηλεκτρονικού ταχυδρομείου έως νέα έργα τέχνης ή βίντεο – και να το φτύνει το σύστημα.
Αν δεν σταματήσει, η πλημμύρα εικόνων σεξουαλικής κακοποίησης παιδιών θα μπορούσε να βαλτώσει τους ερευνητές που προσπαθούν να σώσουν παιδιά που αποδεικνύεται ότι είναι εικονικοί χαρακτήρες. Οι δράστες θα μπορούσαν επίσης να χρησιμοποιήσουν τις εικόνες για να καλλωπίσουν και να εξαναγκάσουν νέα θύματα.
Ο Σέξτον είπε ότι οι αναλυτές της IWF ανακάλυψαν διάσημα πρόσωπα παιδιών στο Διαδίκτυο καθώς και «μεγάλη ζήτηση για τη δημιουργία περισσότερων εικόνων παιδιών που έχουν ήδη κακοποιηθεί, ίσως εδώ και χρόνια».
«Παίρνουν υπάρχον πραγματικό περιεχόμενο και το χρησιμοποιούν για να δημιουργήσουν νέο περιεχόμενο για αυτά τα θύματα», είπε. «Είναι απλά απίστευτα σοκαριστικό».
Ο Σέξτον είπε ότι η φιλανθρωπική του οργάνωση, η οποία επικεντρώνεται στην αντιμετώπιση της διαδικτυακής σεξουαλικής κακοποίησης παιδιών, άρχισε να παράγει αναφορές για καταχρηστικές εικόνες που δημιουργήθηκαν από την τεχνητή νοημοσύνη νωρίτερα φέτος. Αυτό οδήγησε σε έρευνα για φόρουμ σκοτεινού ιστού, ένα μέρος του Διαδικτύου που φιλοξενείται σε κρυπτογραφημένο δίκτυο και είναι προσβάσιμο μόνο μέσω εργαλείων που εγγυώνται την ανωνυμία.
Οι αναλυτές της IWF βρήκαν τους κακοποιούς να μοιράζονται συμβουλές και να εκπλήσσονται με την ευκολία με την οποία μετέτρεψαν τους οικιακούς υπολογιστές τους σε εργοστάσια παραγωγής σεξουαλικών εικόνων παιδιών όλων των ηλικιών. Μερικοί επίσης εμπορεύονται και προσπαθούν να επωφεληθούν από αυτές τις εικόνες που φαίνονται όλο και πιο ρεαλιστικές.
«Αυτό που αρχίζουμε να βλέπουμε είναι αυτή η έκρηξη περιεχομένου», είπε ο Σέξτον.
Αν και η έκθεση της IWF στοχεύει να επισημάνει ένα αυξανόμενο πρόβλημα αντί να προτείνει λύσεις, προτρέπει τις κυβερνήσεις να ενισχύσουν τους νόμους για να διευκολύνουν την καταπολέμηση της κατάχρησης που προκαλείται από την τεχνητή νοημοσύνη. Στοχεύει ιδιαίτερα την Ευρωπαϊκή Ένωση, όπου υπάρχει συζήτηση για τα μέτρα επιτήρησης που θα μπορούσαν να σαρώσουν αυτόματα τις εφαρμογές ανταλλαγής μηνυμάτων για ύποπτες εικόνες σεξουαλικής κακοποίησης παιδιών, ακόμα κι αν οι εικόνες δεν ήταν γνωστές προηγουμένως από τις αρχές επιβολής του νόμου.
Ένας από τους στόχους της ομάδας είναι να αποτρέψει την εκ νέου κακοποίηση πρώην θυμάτων σεξουαλικής κακοποίησης μέσω της αναδιανομής των φωτογραφιών τους.
Η έκθεση αναφέρει ότι οι πάροχοι τεχνολογίας θα μπορούσαν να κάνουν περισσότερα για να κάνουν πιο δύσκολη τη χρήση προϊόντων που έχουν κατασκευάσει με αυτόν τον τρόπο, αν και αυτό περιπλέκεται από το γεγονός ότι ορισμένα εργαλεία είναι δύσκολο να τοποθετηθούν ξανά στο μπουκάλι.
Μια σειρά από νέες γεννήτριες εικόνων AI παρουσιάστηκαν πέρυσι και έχουν εντυπωσιάσει το κοινό με την ικανότητά τους να δημιουργούν φανταστικές ή φωτορεαλιστικές εικόνες κατόπιν εντολής. Ωστόσο, τα περισσότερα από αυτά δεν ευνοούνται από τους παραγωγούς παιδικής πορνογραφίας επειδή περιέχουν μηχανισμούς για τον αποκλεισμό αυτού του περιεχομένου.
Οι πάροχοι τεχνολογίας που έχουν κλείσει τα μοντέλα τεχνητής νοημοσύνης τους, με πλήρη έλεγχο του τρόπου εκπαίδευσης και χρήσης τους – για παράδειγμα, η γεννήτρια εικόνων DALL-E του OpenAI – ήταν πιο επιτυχημένοι στο να εμποδίσουν την κακή χρήση, είπε ο Sexton.
Από την άλλη πλευρά, ένα εργαλείο που προτιμούν οι παραγωγοί εικόνων σεξουαλικής κακοποίησης παιδιών είναι το λογισμικό ανοιχτού κώδικα Stable Diffusion, το οποίο αναπτύχθηκε από την startup του Λονδίνου Stability AI. Όταν το Stable Diffusion εμφανίστηκε στη σκηνή το καλοκαίρι του 2022, ένα υποσύνολο χρηστών έμαθαν γρήγορα να το χρησιμοποιούν για να δημιουργούν γυμνό και πορνογραφία. Αν και τα περισσότερα από αυτά τα έγγραφα απεικόνιζαν ενήλικες, ήταν συχνά μη συναινετικόόπως όταν χρησιμοποιήθηκε για τη δημιουργία γυμνών φωτογραφιών εμπνευσμένων από διασημότητες.
Στη συνέχεια, η Stability κυκλοφόρησε νέα φίλτρα που μπλοκάρουν επικίνδυνο και ακατάλληλο περιεχόμενο και η άδεια χρήσης του λογισμικού της Stability συνοδεύεται από απαγόρευση παράνομων χρήσεων.
Σε δήλωση που κυκλοφόρησε την Τρίτη, η εταιρεία είπε ότι «απαγορεύει αυστηρά οποιαδήποτε κατάχρηση για παράνομους ή ανήθικους σκοπούς» στις πλατφόρμες της. «Υποστηρίζουμε σθεναρά τις προσπάθειες επιβολής του νόμου εναντίον εκείνων που χρησιμοποιούν τα προϊόντα μας για παράνομους ή άσεμνους σκοπούς», ανέφερε η δήλωση.
Οι χρήστες μπορούν, ωστόσο, να έχουν πρόσβαση σε παλαιότερες εκδόσεις του Stable Diffusion, οι οποίες είναι “στη συντριπτική πλειοψηφία του λογισμικού της επιλογής…για άτομα που δημιουργούν ρητό περιεχόμενο με παιδιά”, δήλωσε ο David Thiel, επικεφαλής τεχνολόγος στο Stable Diffusion. Stanford Internet Observatory, άλλη ομάδα παρακολούθησης που μελετά το πρόβλημα. .
Η έκθεση της IWF αναγνωρίζει τη δυσκολία της προσπάθειας ποινικοποίησης των ίδιων των εργαλείων δημιουργίας εικόνων τεχνητής νοημοσύνης, ακόμη και εκείνων που «προσαρμόστηκαν» για την παραγωγή καταχρηστικού υλικού.
«Δεν μπορείτε να ρυθμίσετε τι κάνουν οι άνθρωποι στους υπολογιστές τους, στα υπνοδωμάτιά τους. Δεν είναι δυνατόν», πρόσθεσε ο Σέξτον. «Λοιπόν, πώς φτάνουμε στο σημείο να μην μπορούν να χρησιμοποιήσουν ελεύθερα διαθέσιμο λογισμικό για να δημιουργήσουν επιβλαβές περιεχόμενο όπως αυτό; »
Οι περισσότερες εικόνες σεξουαλικής κακοποίησης παιδιών που δημιουργούνται από την τεχνητή νοημοσύνη θα θεωρούνταν παράνομες σύμφωνα με τους ισχύοντες νόμους στις ΗΠΑ, το Ηνωμένο Βασίλειο και αλλού, αλλά μένει να δούμε αν οι αρχές επιβολής του νόμου διαθέτουν τα εργαλεία που χρειάζονται για την καταπολέμησή τους.
Ένας αξιωματούχος της βρετανικής αστυνομίας είπε ότι η έκθεση δείχνει τον αντίκτυπο που έχουν ήδη δει οι αστυνομικοί που εργάζονται για τον εντοπισμό των θυμάτων.
«Βλέπουμε τα παιδιά να περιποιούνται, βλέπουμε τους δράστες να δημιουργούν τις δικές τους εικόνες σύμφωνα με τις δικές τους προδιαγραφές, βλέπουμε την παραγωγή εικόνων τεχνητής νοημοσύνης για εμπορικό κέρδος – όλα αυτά εξομαλύνουν τον βιασμό και την κακοποίηση πραγματικών παιδιών», είπε. Ο Ίαν είπε σε μια δήλωση . Critchley, επικεφαλής της παιδικής προστασίας στο Εθνικό Συμβούλιο Αρχηγών Αστυνομίας.
Η έκθεση της IWF χρονολογείται πριν από μια παγκόσμια συγκέντρωση για την ασφάλεια της τεχνητής νοημοσύνης την επόμενη εβδομάδα που θα φιλοξενήσει η κυβέρνηση του Ηνωμένου Βασιλείου και θα συμμετάσχουν υψηλού προφίλ συμμετέχοντες, συμπεριλαμβανομένης της αντιπροέδρου των ΗΠΑ Kamala Harris και στελέχη τεχνολογίας.
«Αν και αυτή η έκθεση παρουσιάζει μια ζοφερή εικόνα, είμαι αισιόδοξη», δήλωσε η Σούζι Χάργκρειβς, διευθύνουσα σύμβουλος της IWF, σε μια έτοιμη γραπτή δήλωση. Είπε ότι είναι σημαντικό να επικοινωνήσουμε την πραγματικότητα του προβλήματος σε «ένα ευρύ κοινό, γιατί πρέπει να κάνουμε συζητήσεις για τη σκοτεινή πλευρά αυτής της καταπληκτικής τεχνολογίας».
___
Ο O’Brien ανέφερε από το Providence του Rhode Island. Οι συγγραφείς του Associated Press Barbara Ortutay στο Όκλαντ της Καλιφόρνια και ο Hyung-jin Kim στη Σεούλ της Νότιας Κορέας συνέβαλαν σε αυτήν την αναφορά.