Πρέπει να σταματήσουμε την τεχνητή νοημοσύνη

By | March 10, 2024

Επικίνδυνη έννοια τεχνητής νοημοσύνης AI

Οι ειδικοί υποστηρίζουν την ανθρωποκεντρική τεχνητή νοημοσύνη, υποστηρίζοντας τον σχεδιασμό τεχνολογίας που υποστηρίζει και εμπλουτίζει την ανθρώπινη ζωή, αντί να αναγκάζει τους ανθρώπους να προσαρμοστούν σε αυτήν. Ένα νέο βιβλίο που συγκεντρώνει πενήντα ειδικούς από περισσότερες από δώδεκα χώρες και κλάδους διερευνά πρακτικούς τρόπους εφαρμογής ανθρωποκεντρικής τεχνητής νοημοσύνης, αντιμετωπίζοντας τους κινδύνους και προτείνοντας λύσεις σε διάφορα πλαίσια.

Σύμφωνα με μια ομάδα παγκόσμιων ειδικών, πρέπει να σταματήσουμε την ανάπτυξη νέων τεχνολογιών AI απλώς για χάρη της καινοτομίας, η οποία απαιτεί προσαρμογή πρακτικών, συνηθειών και νόμων για να προσαρμοστούμε στην τεχνολογία. Αντίθετα, υποστηρίζουν τη δημιουργία τεχνητής νοημοσύνης που να ανταποκρίνεται ακριβώς στις ανάγκες μας, ευθυγραμμισμένη με τις αρχές του ανθρωποκεντρικού σχεδιασμού τεχνητής νοημοσύνης.

Πενήντα ειδικοί από όλο τον κόσμο συνέβαλαν σε ένα νέο βιβλίο για το πώς να γίνει η τεχνητή νοημοσύνη πιο «ανθρωποκεντρική», διερευνώντας τους κινδύνους –και τις χαμένες ευκαιρίες– από τη μη χρήση αυτής της προσέγγισης και πρακτικούς τρόπους εφαρμογής της.

Οι ειδικοί προέρχονται από περισσότερες από 12 χώρες, συμπεριλαμβανομένου του Καναδά, της Γαλλίας, της Ιταλίας, της Ιαπωνίας, της Νέας Ζηλανδίας και του Ηνωμένου Βασιλείου, και περισσότερους από 12 κλάδους, όπως η πληροφορική, η εκπαίδευση, το δίκαιο, η διαχείριση, οι πολιτικές επιστήμες και η κοινωνιολογία.

Ανθρωποκεντρική τεχνητή νοημοσύνη εξετάζει τεχνολογίες τεχνητής νοημοσύνης σε διάφορα πλαίσια, συμπεριλαμβανομένης της γεωργίας, των χώρων εργασίας, της υγειονομικής περίθαλψης, της ποινικής δικαιοσύνης, της τριτοβάθμιας εκπαίδευσης και προτείνει μέτρα για να είναι πιο «ανθρωποκεντρική», συμπεριλαμβανομένων ρυθμιστικών προσεγγίσεων sandbox και διεπιστημονικών πλαισίων εργασίας.

Τι είναι η ανθρωποκεντρική τεχνητή νοημοσύνη;

Η τεχνητή νοημοσύνη (AI) διαπερνά ολοένα και περισσότερο τις ζωές μας και ορισμένοι ειδικοί λένε ότι το να βασιζόμαστε αποκλειστικά σε εταιρείες τεχνολογίας για την ανάπτυξη και την ανάπτυξη αυτής της τεχνολογίας με τρόπο που ουσιαστικά βελτιώνει την ανθρώπινη εμπειρία θα είναι επιζήμιο για τους ανθρώπους μακροπρόθεσμα. Εδώ μπαίνει στο παιχνίδι η ανθρωποκεντρική τεχνητή νοημοσύνη.

Ένας από τους κορυφαίους ειδικούς στον κόσμο στην ανθρωποκεντρική τεχνητή νοημοσύνη, η Shannon Vallor του Πανεπιστημίου του Εδιμβούργου στη Σκωτία, εξηγεί ότι ανθρωποκεντρική τεχνητή νοημοσύνη σημαίνει τεχνολογία που βοηθά τους ανθρώπους να «ανθίσουν».

Λέει: «Η ανθρωποκεντρική τεχνολογία έχει να κάνει με την ευθυγράμμιση ολόκληρου του τεχνολογικού οικοσυστήματος με την υγεία και την ευημερία του ανθρώπου. Η αντίθεση είναι με την τεχνολογία που έχει σχεδιαστεί για να αντικαθιστά τους ανθρώπους, να ανταγωνίζεται τους ανθρώπους ή να υποτιμά τους ανθρώπους, έναντι της τεχνολογίας που έχει σχεδιαστεί για να υποστηρίζει, να ενδυναμώνει, να εμπλουτίζει και να ενισχύει τους ανθρώπους.

Αναφέρει τη γενετική τεχνητή νοημοσύνη, η οποία έχει αποκτήσει δημοτικότητα τα τελευταία χρόνια, ως παράδειγμα τεχνολογίας που δεν είναι ανθρωποκεντρική – υποστηρίζει ότι η τεχνολογία δημιουργήθηκε από οργανισμούς που απλώς θέλουν να δουν πόσο καλά θα μπορούσαν να δημιουργήσουν ένα ισχυρό σύστημα, αντί να το κάνουν το. ικανοποιήσει μια ανθρώπινη ανάγκη.

«Αυτό που παίρνουμε είναι κάτι με το οποίο πρέπει να αντιμετωπίσουμε, σε αντίθεση με κάτι που σχεδιάστηκε από εμάς, για εμάς και για το όφελός μας. Δεν είναι η τεχνολογία που χρειαζόμασταν», εξηγεί. «Αντί να προσαρμόζουμε τις τεχνολογίες στις ανάγκες μας, προσαρμοζόμαστε στις ανάγκες της τεχνολογίας».

Τι συμβαίνει με το AI;

Συνεισφέροντες σε Ανθρωποκεντρική τεχνητή νοημοσύνη περιγράφουν τις ελπίδες τους, αλλά και πολλές ανησυχίες για την τρέχουσα τεχνητή νοημοσύνη και την τρέχουσα τροχιά της, χωρίς ανθρωποκεντρική εστίαση.

Η Malwina Anna Wójcik, από το Πανεπιστήμιο της Μπολόνια, Ιταλία και το Πανεπιστήμιο του Λουξεμβούργου, υπογραμμίζει τις συστημικές προκαταλήψεις στην τρέχουσα ανάπτυξη της τεχνητής νοημοσύνης. Τονίζει ότι οι ιστορικά περιθωριοποιημένες κοινότητες δεν διαδραματίζουν σημαντικό ρόλο στο σχεδιασμό και την ανάπτυξη τεχνολογιών τεχνητής νοημοσύνης, οδηγώντας στην «περιχαράκωση των κυρίαρχων λόγων εξουσίας».

Υποστηρίζει ότι υπάρχει έλλειψη στοιχείων για τις μειονότητες ή ότι τα διαθέσιμα στοιχεία είναι ανακριβή, γεγονός που οδηγεί σε διακρίσεις. Επιπλέον, η άνιση διαθεσιμότητα συστημάτων τεχνητής νοημοσύνης οδηγεί σε διεύρυνση των χασμάτων ισχύος, με τις περιθωριοποιημένες ομάδες να μην μπορούν να τροφοδοτήσουν τον βρόχο δεδομένων AI και, ταυτόχρονα, να επωφεληθούν από τις τεχνολογίες.

Η λύση του έγκειται στην ποικιλομορφία της έρευνας καθώς και σε διεπιστημονικά και συνεργατικά έργα στο σημείο τομής της επιστήμης των υπολογιστών, της ηθικής, του δικαίου και των κοινωνικών επιστημών. Σε επίπεδο πολιτικής, προτείνει ότι οι διεθνείς πρωτοβουλίες πρέπει να περιλαμβάνουν διαπολιτισμικό διάλογο με μη δυτικές παραδόσεις.

Ο Matt Malone του Πανεπιστημίου Thompson Rivers στον Καναδά εξηγεί πώς η τεχνητή νοημοσύνη αποτελεί πρόκληση απορρήτου, επειδή λίγοι άνθρωποι καταλαβαίνουν πραγματικά πώς συλλέγονται ή χρησιμοποιούνται τα δεδομένα τους.

«Αυτά τα κενά στη συναίνεση και τη γνώση οδηγούν σε αέναες εισβολές σε τομείς που διαφορετικά η ιδιωτικότητα θα μπορούσε να επιδιώξει να ελέγξει», εξηγεί. «Το απόρρητο καθορίζει πόσο μακριά θα επιτρέψουμε στην τεχνολογία να διεισδύσει στις σφαίρες της ανθρώπινης ζωής και συνείδησης. Αλλά καθώς αυτά τα σοκ εξασθενούν, το απόρρητο επαναπροσδιορίζεται και επαναπροσδιορίζεται γρήγορα και καθώς η τεχνητή νοημοσύνη συλλαμβάνει περισσότερο χρόνο, προσοχή και εμπιστοσύνη, το απόρρητο θα συνεχίσει να παίζει καθοριστικό ρόλο στα όρια της πλοκής μεταξύ ανθρώπων και τεχνολογίας.

Ο Malone προτείνει ότι «το απόρρητο θα εξελιχθεί με την αποδοχή ή την απόρριψη τεχνολογιών που βασίζονται στην τεχνητή νοημοσύνη» και ότι ακόμη κι αν η τεχνολογία προσφέρει μεγαλύτερη ισότητα, η ατομικότητα είναι πιθανό να διακυβεύεται.

AI και ανθρώπινη συμπεριφορά

Εκτός από την εξερεύνηση των κοινωνικών επιπτώσεων, οι συνεργάτες μελετούν τις συμπεριφορικές επιπτώσεις της χρήσης της τεχνητής νοημοσύνης στην τρέχουσα μορφή της.

Ο Oshri Bar-Gil του Ινστιτούτου Έρευνας Επιστημών Συμπεριφοράς στο Ισραήλ διεξήγαγε ένα ερευνητικό έργο σχετικά με το πώς η χρήση των υπηρεσιών Google οδήγησε σε αλλαγές στην αυτοαντίληψη και την εικόνα του εαυτού. Εξηγεί ότι ένας «εαυτός» δεδομένων δημιουργείται όταν χρησιμοποιούμε μια πλατφόρμα, στη συνέχεια η πλατφόρμα λαμβάνει περισσότερα δεδομένα σχετικά με τον τρόπο που τη χρησιμοποιούμε και στη συνέχεια χρησιμοποιεί τα δεδομένα και τις προτιμήσεις που παρέχουμε για να βελτιώσει τη δική σας απόδοση.

«Αυτοί οι αποτελεσματικοί και ωφέλιμοι κινητήρες συστάσεων έχουν ένα κρυφό κόστος: την επιρροή τους σε εμάς ως ανθρώπους», λέει. «Τροποποιούν τις διαδικασίες της σκέψης μας, αλλάζοντας ορισμένες από τις θεμελιώδεις ανθρώπινες πτυχές της πρόθεσης, του ορθολογισμού και της μνήμης στην ψηφιακή σφαίρα και στον πραγματικό κόσμο, μειώνοντας έτσι την ικανότητά μας για δράση και την αυτονομία μας. »

Εξετάζουν επίσης τις επιπτώσεις στη συμπεριφορά, ο Alistair Knott του Πανεπιστημίου Victoria του Wellington της Νέας Ζηλανδίας και ο Tapabrata Chakraborti του Ινστιτούτου Alan Turing στο University College του Λονδίνου, στο Ηνωμένο Βασίλειο και ο Dino Pedreschi του Πανεπιστημίου της Πίζας, Ιταλία, που εξέτασαν την ευρεία χρήση του AI. . στα social media.

«Ακόμη και αν τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται από τις πλατφόρμες μέσων κοινωνικής δικτύωσης είναι, κατά κάποια έννοια, ανθρωποκεντρικά, πολλές πτυχές της λειτουργίας τους αξίζουν προσεκτική εξέταση», εξηγούν.

Το πρόβλημα είναι ότι το AI μαθαίνει συνεχώς από τη συμπεριφορά των χρηστών, βελτιώνοντας το μοντέλο των χρηστών καθώς συνεχίζουν να αλληλεπιδρούν με την πλατφόρμα. Αλλά οι χρήστες τείνουν να κάνουν κλικ σε στοιχεία που τους προτείνει το σύστημα συστάσεων, πράγμα που σημαίνει ότι το σύστημα AI είναι πιθανό να περιορίσει το εύρος των ενδιαφερόντων ενός χρήστη με την πάροδο του χρόνου. Εάν οι χρήστες αλληλεπιδρούν με προκατειλημμένο περιεχόμενο, είναι πιο πιθανό να τους προτείνεται αυτό το περιεχόμενο και αν συνεχίσουν να αλληλεπιδρούν με αυτό, θα δουν περισσότερα από αυτό: «Εν ολίγοις, υπάρχει ένας εύλογος λόγος ανησυχίας ότι τα συστήματα προτάσεων θα μπορούσαν να παίξουν κάποιο ρόλο . έναν ρόλο στον οποίο φέρνουν τους χρήστες εξτρεμιστής θέσεις. »

Προτείνουν λύσεις σε αυτά τα προβλήματα, συμπεριλαμβανομένης της αυξημένης διαφάνειας από εταιρείες που διαθέτουν δεδομένα σχετικά με συστήματα συστάσεων, για να καταστεί δυνατή η βαθύτερη μελέτη και η αναφορά των επιπτώσεων αυτών των συστημάτων στη στάση των χρηστών στα συστήματα συστάσεων όσον αφορά το επιβλαβές περιεχόμενο.

Πώς μπορεί η ανθρωποκεντρική τεχνητή νοημοσύνη να λειτουργήσει στην πραγματικότητα;

Ο Pierre Larouche του Πανεπιστημίου του Μόντρεαλ, Καναδάς, λέει ότι η αντιμετώπιση της τεχνητής νοημοσύνης ως “αυτόνομο αντικείμενο νόμου και ρύθμισης” και η υπόθεση ότι “δεν υπάρχει νόμος που να ισχύει επί του παρόντος για την τεχνητή νοημοσύνη” έχει δώσει σε ορισμένους υπεύθυνους χάραξης πολιτικής να πιστεύουν ότι αυτό είναι ένα ανυπέρβλητο καθήκον.

Εξηγεί: «Εφόσον η τεχνητή νοημοσύνη θεωρείται μια νέα τεχνολογική εξέλιξη, υποτίθεται ότι δεν υπάρχουν νόμοι σχετικά με αυτήν ακόμη. Στο ίδιο πνεύμα, παρά τη σπανιότητα –ή και την παντελή απουσία– ειδικών κανόνων που αφορούν την τεχνητή νοημοσύνη καθαυτή, δεν υπάρχει έλλειψη νόμων που να εφαρμόζονται στην τεχνητή νοημοσύνη, λόγω της αγκύρωσής της στις κοινωνικές και οικονομικές σχέσεις.

Ο Larouche προτείνει ότι η πρόκληση δεν είναι να δημιουργηθεί νέα νομοθεσία, αλλά να καθοριστεί πώς η υπάρχουσα νομοθεσία μπορεί να επεκταθεί και να εφαρμοστεί στην τεχνητή νοημοσύνη και εξηγεί: «Το να επιτρέπεται η συζήτηση να πλαισιώνεται ως μια ανοιχτή ηθική συζήτηση σε μια λευκή νομιμότητα σελίδας μπορεί να είναι αντιπαραγωγικό. -παραγωγικό για τη χάραξη πολιτικής, καθώς ανοίγει την πόρτα σε διάφορες τακτικές καθυστέρησης που αποσκοπούν στην παράταση των συζητήσεων επ’ αόριστον, ενώ η τεχνολογία συνεχίζει να προχωρά με γρήγορους ρυθμούς».

Ο Benjamin Prud’homme, Αντιπρόεδρος Πολιτικής, Κοινωνίας και Παγκόσμιων Υποθέσεων στο Mila – Ινστιτούτο Τεχνητής Νοημοσύνης του Κεμπέκ, μια από τις μεγαλύτερες ακαδημαϊκές κοινότητες αφιερωμένη στην τεχνητή νοημοσύνη, απηχεί αυτό το κάλεσμα για εμπιστοσύνη στις πολιτικές των υπευθύνων λήψης αποφάσεων.

Εξηγεί: «Η πρώτη μου σύσταση, ή ίσως η πρώτη μου ελπίδα, θα ήταν να αρχίσουμε να απομακρυνόμαστε από τη διχοτόμηση μεταξύ καινοτομίας και ρύθμισης – ότι αναγνωρίζουμε ότι μπορεί να είναι αποδεκτό να καταπνίγουμε την καινοτομία εάν αυτή η καινοτομία είναι ανεύθυνη.

«Θα έλεγα στους υπεύθυνους χάραξης πολιτικής να έχουν μεγαλύτερη εμπιστοσύνη στην ικανότητά τους να ρυθμίζουν την τεχνητή νοημοσύνη. Αν και ναι, η τεχνολογία είναι νέα, αλλά είναι ανακριβές να πούμε ότι δεν έχουν (επιτυχώς) αντιμετωπίσει τις προκλήσεις καινοτομίας στο παρελθόν, πολλοί άνθρωποι στην κοινότητα διακυβέρνησης τεχνολογίας IA φοβούνται ότι δεν κάνουν τα πράγματα σωστά από την αρχή. Και ξέρετε, ένα πράγμα που έμαθα μέσα από τις εμπειρίες μου σε κύκλους λήψης αποφάσεων είναι ότι μάλλον δεν πρόκειται να το κάνουμε σωστά από την αρχή. Είναι εντάξει.

«Κανείς δεν έχει μαγικό ραβδί. Θα έλεγα λοιπόν το εξής στους υπεύθυνους χάραξης πολιτικής: πάρτε το θέμα στα σοβαρά. Βάλε τα δυνατά σου. Προσκαλέστε ένα ευρύ φάσμα προοπτικών, συμπεριλαμβανομένων των περιθωριοποιημένων κοινοτήτων και των τελικών χρηστών, στο τραπέζι για να προσπαθήσετε να βρείτε τους σωστούς μηχανισμούς διακυβέρνησης. Αλλά μην παραλύεστε από μια χούφτα φωνές που ισχυρίζονται ότι οι κυβερνήσεις δεν μπορούν να ρυθμίσουν την τεχνητή νοημοσύνη χωρίς να καταπνίξουν την καινοτομία. Η Ευρωπαϊκή Ένωση θα μπορούσε να δώσει το παράδειγμα από αυτή την άποψη, καθώς ο πολύ φιλόδοξος νόμος για την τεχνητή νοημοσύνη, ο πρώτος συστημικός νόμος για την τεχνητή νοημοσύνη, θα πρέπει να εγκριθεί οριστικά τους επόμενους μήνες».

Παραπομπή: «Ανθρωποκεντρική τεχνητή νοημοσύνη – Μια διεπιστημονική προοπτική για τους υπεύθυνους χάραξης πολιτικής, τους ελεγκτές και τους χρήστες», 21 Μαρτίου 2024.
DOI: 10.1201/9781003320791

Leave a Reply

Your email address will not be published. Required fields are marked *