Το OpenAI καταργεί αθόρυβα την απαγόρευση χρήσης του ChatGPT για “στρατιωτικό και πόλεμο”

By | January 12, 2024

OpenAI αυτή την εβδομάδα έχει αφαιρέσει αθόρυβα τη γλώσσα που απαγορεύει ρητά τη χρήση της τεχνολογίας της για στρατιωτικούς σκοπούς από την πολιτική χρήσης της, η οποία επιδιώκει να υπαγορεύσει πόσο ισχυρά και εξαιρετικά δημοφιλή εργαλεία όπως το ChatGPT μπορούν να χρησιμοποιηθούν.

Μέχρι τις 10 Ιανουαρίου, η σελίδα “πολιτικές χρήσης” του OpenAI περιλάμβανε απαγόρευση “δραστηριοτήτων με υψηλό κίνδυνο σωματικής βλάβης, συμπεριλαμβανομένης, ειδικότερα, της “ανάπτυξης όπλων” και “στρατιωτικού και πολέμου”. Αυτή η σαφώς διατυπωμένη απαγόρευση κατά των στρατιωτικών εφαρμογών θα απέκλειε προφανώς οποιαδήποτε επίσημη και άκρως προσοδοφόρα χρήση από το Υπουργείο Άμυνας ή οποιονδήποτε άλλο κρατικό στρατό. Η νέα πολιτική διατηρεί μια εντολή να μην «χρησιμοποιούμε τις υπηρεσίες μας για να βλάψουμε τον εαυτό μας ή τους άλλους» και δίνει ως παράδειγμα την «ανάπτυξη ή χρήση όπλων», αλλά η γενική απαγόρευση της «στρατιωτικής και πολεμικής» χρήσης « έχει εξαφανιστεί.

Η απροειδοποίητη διαγραφή αποτελεί μέρος μιας σημαντικής επανεγγραφής της σελίδας πολιτικής, η οποία, σύμφωνα με την εταιρεία, είχε σκοπό να κάνει το έγγραφο “πιο σαφές” και “πιο ευανάγνωστο” και περιλαμβάνει πολλές άλλες σημαντικές αλλαγές στη γλώσσα και τη μορφοποίηση .

«Στόχευσα να δημιουργήσουμε ένα σύνολο καθολικών αρχών που είναι εύκολο να θυμόμαστε και να εφαρμόζουμε, ειδικά επειδή τα εργαλεία μας χρησιμοποιούνται πλέον σε όλο τον κόσμο από καθημερινούς χρήστες που μπορούν πλέον να δημιουργούν και GPT», δήλωσε ο εκπρόσωπος του Porte -OpenAI, Niko Felix σε ένα email στο Το Intercept. «Μια αρχή όπως το «Μη βλάπτεις τους άλλους» είναι ευρεία, αλλά εύκολα κατανοητή και σχετική σε πολλά πλαίσια. Επιπλέον, αναφέραμε συγκεκριμένα τα όπλα και την πρόκληση βλάβης σε άλλους ως ξεκάθαρα παραδείγματα.

Ο Φέλιξ αρνήθηκε να πει εάν η ασαφής απαγόρευση της «βλάβης» περιελάμβανε οποιαδήποτε στρατιωτική χρήση, γράφοντας: «Οποιαδήποτε χρήση της τεχνολογίας μας, συμπεριλαμβανομένου του στρατού, για «[develop] Ή [use] όπλα, [injure] άλλοι ή [destroy] ιδιοκτησία, ή [engage] σε μη εξουσιοδοτημένες δραστηριότητες που παραβιάζουν την ασφάλεια οποιασδήποτε υπηρεσίας ή συστήματος», απαγορεύεται.

«Το OpenAI γνωρίζει καλά τους κινδύνους και τις βλάβες που μπορεί να προκύψουν λόγω της χρήσης της τεχνολογίας και των υπηρεσιών του σε στρατιωτικές εφαρμογές», δήλωσε η Heidy Khlaaf, διευθύντρια μηχανικής στην εταιρεία κυβερνοασφάλειας Trail of Bits και ειδικός στη μηχανική μάθηση και την ασφάλεια αυτόνομων συστημάτων. , επικαλούμενη μια εργασία του 2022 που συνέταξε από κοινού με ερευνητές του OpenAI που υπογράμμιζε συγκεκριμένα τον κίνδυνο στρατιωτικής χρήσης. Ο Khlaaf πρόσθεσε ότι η νέα πολιτική φαίνεται να δίνει προτεραιότητα στη νομιμότητα έναντι της ασφάλειας. «Υπάρχει μια σαφής διαφορά μεταξύ των δύο πολιτικών, καθώς η πρώτη δηλώνει ξεκάθαρα ότι η ανάπτυξη όπλων, καθώς και ο στρατός και ο πόλεμος απαγορεύονται, ενώ η δεύτερη τονίζει την ευελιξία και τον σεβασμό του νόμου», είπε. «Η ανάπτυξη όπλων και η διεξαγωγή δραστηριοτήτων που σχετίζονται με τον στρατό και τον πόλεμο είναι νόμιμη από διάφορες απόψεις. Οι πιθανές επιπτώσεις της τεχνητής νοημοσύνης στην ασφάλεια είναι σημαντικές. Δεδομένων των γνωστών περιπτώσεων μεροληψίας και παραισθήσεων που υπάρχουν στα μεγάλα γλωσσικά μοντέλα (LLM) και της γενικής έλλειψης ακρίβειας, η χρήση τους στον στρατιωτικό πόλεμο μπορεί να οδηγήσει μόνο σε ανακριβείς και μεροληπτικές επιχειρήσεις που ενδέχεται να επιδεινώσουν τις ζημιές και τις απώλειες αμάχων.

Οι πραγματικές συνέπειες αυτής της πολιτικής είναι ασαφείς. Πέρυσι, το The Intercept ανέφερε ότι το OpenAI δεν ήταν διατεθειμένο να πει εάν θα επιβάλει τη δική του ξεκάθαρη απαγόρευση “στρατιωτικής και πολεμικής” ενόψει του αυξανόμενου ενδιαφέροντος από το Πεντάγωνο και την κοινότητα πληροφοριών των ΗΠΑ.

«Δεδομένης της χρήσης συστημάτων τεχνητής νοημοσύνης για τη στόχευση αμάχων στη Γάζα, αυτή είναι μια σημαντική στιγμή για να λάβουμε την απόφαση να αφαιρέσουμε τις λέξεις «στρατιωτικός και πόλεμος» από την πολιτική επιτρεπόμενης χρήσης του OpenAI», δήλωσε η Sarah Myers West, CEO της AI Now. Ινστιτούτο και πρώην αναλυτής πολιτικής AI στην Ομοσπονδιακή Επιτροπή Εμπορίου. «Η γλώσσα στην πολιτική παραμένει ασαφής και εγείρει ερωτήματα σχετικά με τον τρόπο με τον οποίο το OpenAI σκοπεύει να προσεγγίσει την εφαρμογή».

Αν και τίποτα που προσφέρει το OpenAI σήμερα δεν μπορεί εύλογα να χρησιμοποιηθεί για να σκοτώσει κάποιον άμεσα, στρατιωτικά ή με άλλον τρόπο (το ChatGPT δεν μπορεί να ελίσσει ένα drone ή να εκτοξεύει έναν πύραυλο), κάθε στρατός έχει την αποστολή να σκοτώσει ή τουλάχιστον να διατηρήσει την ικανότητα να σκοτώνει. Υπάρχει ένας αριθμός γειτονικών εργασιών καταστροφής που θα μπορούσε να αυξήσει ένα LLM όπως το ChatGPT, όπως η σύνταξη κώδικα ή η επεξεργασία παραγγελιών προμηθειών. Μια ανασκόπηση των προσαρμοσμένων ρομπότ που βασίζονται στο ChatGPT που προσφέρονται από το OpenAI υποδηλώνει ότι το στρατιωτικό προσωπικό των ΗΠΑ χρησιμοποιεί ήδη την τεχνολογία για να επιταχύνει τη γραφειοκρατία. Η Εθνική Υπηρεσία Γεωχωρικών Πληροφοριών, η οποία υποστηρίζει άμεσα τις μάχιμες προσπάθειες των ΗΠΑ, έχει ανοιχτά εικασίες σχετικά με τη χρήση του ChatGPT για να βοηθήσει τους ανθρώπινους αναλυτές της. Ακόμα κι αν τα εργαλεία OpenAI είχαν αναπτυχθεί από τμήματα μιας στρατιωτικής δύναμης για σκοπούς που δεν είναι άμεσα βίαιοι, θα εξακολουθούσαν να βοηθούν ένα ίδρυμα του οποίου ο πρωταρχικός στόχος είναι η φονικότητα.

Οι ειδικοί που εξέτασαν τις αλλαγές πολιτικής κατόπιν αιτήματος του The Intercept είπαν ότι το OpenAI φαίνεται να αποδυναμώνει αθόρυβα τη στάση του ενάντια στις επιχειρηματικές συναλλαγές με τον στρατό. «Θα μπορούσα να φανταστώ ότι η μετάβαση από το «στρατιωτικό και τον πόλεμο» στα «όπλα» αφήνει ανοιχτό χώρο για το OpenAI για υποστήριξη επιχειρησιακών υποδομών, εφόσον η εφαρμογή δεν περιλαμβάνει άμεσα την ανάπτυξη όπλων με την αυστηρή έννοια», δήλωσε η Lucy Suchman, ομότιμη καθηγήτρια. στην Ανθρωπολογία της Επιστήμης και της Τεχνολογίας στο Πανεπιστήμιο του Λάνκαστερ. «Φυσικά, νομίζω ότι η ιδέα ότι κάποιος μπορεί να συνεισφέρει σε πλατφόρμες μάχης ενώ ισχυρίζεται ότι δεν εμπλέκεται στην ανάπτυξη ή τη χρήση όπλων θα ήταν ανειλικρινής, γιατί θα αφαιρούσε το όπλο από το κοινωνικο-τεχνικό σύστημα – συμπεριλαμβανομένης της διοίκησης και του ελέγχου υποδομών – των οποίων αποτελεί μέρος. .» Ο Suchman, ειδικός στην τεχνητή νοημοσύνη από τη δεκαετία του 1970 και μέλος της Διεθνούς Επιτροπής για τον Έλεγχο Ρομποτικών Όπλων, πρόσθεσε: «Φαίνεται εύλογο ότι το νέο έγγραφο πολιτικής παρακάμπτει το ζήτημα των στρατιωτικών συμβάσεων και των πολεμικών επιχειρήσεων εστιάζοντας ειδικά στα όπλα. »

Τόσο ο Suchman όσο και ο Myers West τόνισαν τη στενή συνεργασία του OpenAI με τη Microsoft, έναν σημαντικό εργολάβο στον τομέα της άμυνας, η οποία έχει επενδύσει 13 δισεκατομμύρια δολάρια στον κατασκευαστή LLM μέχρι σήμερα και μεταπωλεί τα εργαλεία λογισμικού της εταιρείας.

Αυτές οι αλλαγές έρχονται καθώς οι στρατοί σε όλο τον κόσμο είναι πρόθυμοι να ενσωματώσουν τεχνικές μηχανικής μάθησης για να αποκτήσουν πλεονέκτημα. το Πεντάγωνο εξακολουθεί να μελετά διστακτικά πώς θα μπορούσε να χρησιμοποιήσει το ChatGPT ή άλλα μοντέλα ευρείας γλώσσας, έναν τύπο εργαλείου λογισμικού ικανού να παράγει γρήγορα και επιδέξια εξελιγμένη παραγωγή κειμένου. Τα LLM εκπαιδεύονται σε τεράστιους όγκους βιβλίων, άρθρων και άλλων δεδομένων ιστού για να προσεγγίζουν τις ανθρώπινες απαντήσεις στις προτροπές των χρηστών. Αν και τα αποτελέσματα ενός LLM όπως το ChatGPT είναι συχνά εξαιρετικά πειστικά, είναι βελτιστοποιημένα για συνέπεια και όχι σταθερή κατανόηση της πραγματικότητας και συχνά υποφέρουν από τις λεγόμενες παραισθήσεις που κάνουν την ακρίβεια και την πραγματικότητα πρόβλημα. Ωστόσο, η ικανότητα των LLM να απορροφούν γρήγορα κείμενο και να παράγουν γρήγορα ανάλυση – ή τουλάχιστον μια ψευδή ανάλυση – το καθιστά φυσικό κατάλληλο για το Υπουργείο Άμυνας με πολλά δεδομένα.

Ενώ ορισμένοι στρατιωτικοί ηγέτες των ΗΠΑ έχουν εκφράσει ανησυχίες για την τάση των LLM να εισάγουν κραυγαλέα πραγματικά λάθη ή άλλες στρεβλώσεις, καθώς και για τους κινδύνους ασφαλείας που θα μπορούσαν να προκύψουν από τη χρήση του ChatGPT για ανάλυση διαβαθμισμένων ή άλλως ευαίσθητων, το Πεντάγωνο παραμένει γενικά πρόθυμο να υιοθετήσει τεχνητά μέτρα . εργαλεία νοημοσύνης. Σε μια ομιλία του Νοεμβρίου, η αναπληρώτρια υπουργός Άμυνας Kathleen Hicks είπε ότι η τεχνητή νοημοσύνη είναι «ένα βασικό μέρος της συνολικής, με επίκεντρο τους πολεμιστές προσέγγιση της καινοτομίας που έχει υιοθετήσει ο υπουργός Εξωτερικών. [Lloyd] Η Austin και εγώ οδηγούμε από την πρώτη μέρα», αν και προειδοποίησε ότι οι περισσότερες τρέχουσες προσφορές «δεν είναι ακόμη αρκετά τεχνικά ώριμες ώστε να συμμορφώνονται με τις ηθικές αρχές μας για την τεχνητή νοημοσύνη».

Πέρυσι, η Kimberly Sablon, η ανώτερη διευθύντρια του Πενταγώνου για την αξιόπιστη τεχνητή νοημοσύνη και την αυτονομία, δήλωσε σε συνέδριο στη Χαβάη:

Category: A.I

Leave a Reply

Your email address will not be published. Required fields are marked *