Μείνετε ενημερωμένοι με δωρεάν ενημερώσεις
Απλώς εγγραφείτε στο Τεχνητή νοημοσύνη myFT Digest – παραδίδεται απευθείας στα εισερχόμενά σας.
Ο συγγραφέας είναι ο ιδρυτής του Τάμεσηςέναν ιστότοπο που υποστηρίζεται από το FT για ευρωπαϊκές νεοφυείς επιχειρήσεις
Αναδεικνύεται γρήγορα ως ένας από τους πιο σημαντικούς, και ολοένα και πιο ιδεολογικούς, τεχνολογικούς διαχωρισμούς της εποχής μας: θα πρέπει τα ισχυρά συστήματα τεχνητής νοημοσύνης να είναι ανοιχτά ή κλειστά; Το πώς θα εξελιχθεί αυτή η συζήτηση θα επηρεάσει την παραγωγικότητα των οικονομιών μας, τη σταθερότητα των κοινωνιών μας και την τύχη ορισμένων από τις πλουσιότερες εταιρείες του κόσμου.
Οι υποστηρικτές των μοντέλων ανοιχτού κώδικα, όπως το LLaMA 2 της Meta ή το Hugging Face’s Bloom, που επιτρέπουν στους χρήστες να προσαρμόζουν οι ίδιοι το ισχυρό λογισμικό παραγωγής τεχνητής νοημοσύνης, λένε ότι διευρύνουν την πρόσβαση στην τεχνολογία, ενισχύοντας την καινοτομία και βελτιώνουν την αξιοπιστία ενθαρρύνοντας τον εξωτερικό έλεγχο. Πολύ λιγότερο δαπανηρό για την ανάπτυξη και την ανάπτυξη, τα μικρότερα ανοιχτά μοντέλα ενισχύουν επίσης τον ανταγωνισμό σε ένα πεδίο που κυριαρχείται από μεγάλες αμερικανικές εταιρείες όπως η Google, η Microsoft και η OpenAI. Αυτές οι εταιρείες έχουν επενδύσει δισεκατομμύρια στην ανάπτυξη τεράστιων, κλειστών παραγωγικών συστημάτων AI, τα οποία ελέγχουν αυστηρά.
Αλλά οι επικριτές λένε ότι τα ανοιχτά μοντέλα κινδυνεύουν να σηκώσουν το καπάκι σε ένα κουτί προβλημάτων της Πανδώρας. Οι κακοί παράγοντες μπορούν να τους εκμεταλλευτούν για να διαδώσουν εξατομικευμένη παραπληροφόρηση σε παγκόσμια κλίμακα, ενώ οι τρομοκράτες θα μπορούσαν να τα χρησιμοποιήσουν για να κατασκευάσουν όπλα στον κυβερνοχώρο ή βιολογικά όπλα. «Ο κίνδυνος του ανοιχτού κώδικα είναι ότι επιτρέπει σε περισσότερους τρελούς να κάνουν τρελά πράγματα», προειδοποίησε ο Geoffrey Hinton, ένας από τους πρωτοπόρους της σύγχρονης τεχνητής νοημοσύνης.
Η ιστορία του OpenAI, που ανέπτυξε το δημοφιλές chatbot ChatGPT, είναι από μόνη της διδακτική. Όπως υποδηλώνει το όνομά της, η ερευνητική εταιρεία ιδρύθηκε το 2015 με δέσμευση να αναπτύξει την τεχνολογία όσο πιο ανοιχτά γίνεται. Αργότερα όμως εγκατέλειψε αυτή την προσέγγιση για λόγους ανταγωνιστικότητας και ασφάλειας. «Κάναμε τελείως λάθος», είπε ο Ilya Sutskever, επικεφαλής επιστήμονας του OpenAI, στο The Verge.
Μόλις το OpenAI συνειδητοποίησε ότι τα παραγωγικά μοντέλα τεχνητής νοημοσύνης του θα ήταν «απίστευτα ισχυρά», δεν είχε πλέον νόημα να τα ανοιχτού κώδικα, είπε. «Περιμένω ότι σε λίγα χρόνια θα είναι προφανές σε όλους ότι η τεχνητή νοημοσύνη ανοιχτού κώδικα δεν έχει νόημα».
Οι υποστηρικτές των ανοιχτών μοντέλων έχουν αντεπιτεθεί, γελοιοποιώντας την ιδέα ότι τα ανοιχτά μοντέλα τεχνητής νοημοσύνης που δημιουργούνται επιτρέπουν στους ανθρώπους να έχουν πρόσβαση σε πληροφορίες που δεν θα μπορούσαν διαφορετικά να βρουν στο Διαδίκτυο ή από έναν απατεώνα επιστήμονα. Υπογραμμίζουν επίσης το ανταγωνιστικό ενδιαφέρον των μεγάλων εταιρειών τεχνολογίας φωνάζοντας για τους κινδύνους των ανοιχτών μοντέλων. Οι επικριτές προτείνουν ότι η απαίσια πρόθεση αυτών των εταιρειών είναι να αιχμαλωτίσουν τις ρυθμιστικές αρχές, επιβάλλοντας υψηλότερο κόστος συμμόρφωσης στους εξεγερμένους και έτσι ενισχύοντας τη δική τους κυριαρχία στην αγορά.
Υπάρχει όμως και μια ιδεολογική διάσταση σε αυτή τη συζήτηση. Ο Yann LeCun, ο επικεφαλής επιστήμονας της Meta, ο οποίος χώρισε με άλλους γίγαντες της Silicon Valley υποστηρίζοντας ανοιχτά μοντέλα, συνέκρινε τα επιχειρήματα των αντίπαλων εταιρειών για τον έλεγχο της τεχνολογίας με τον μεσαιωνικό σκοταδισμό: την πεποίθηση ότι μόνο ένα ιερατείο από αυτοεπιλεγμένους ειδικούς είναι σοφό. επαρκή για τη διαχείριση της γνώσης.
Στο μέλλον, μου είπε πρόσφατα, όλες οι αλληλεπιδράσεις μας με το τεράστιο ψηφιακό αποθετήριο ανθρώπινης γνώσης θα γίνονται μέσω συστημάτων τεχνητής νοημοσύνης. Δεν θα πρέπει να θέλουμε μια χούφτα εταιρειών της Silicon Valley να ελέγχουν αυτήν την πρόσβαση. Ακριβώς όπως το Διαδίκτυο έχει ευδοκιμήσει αντιστεκόμενος στις προσπάθειες να το κλειδώσει, η τεχνητή νοημοσύνη θα ευδοκιμήσει παραμένοντας ανοιχτή, υποστηρίζει ο LeCun, «εφόσον οι κυβερνήσεις σε όλο τον κόσμο δεν απαγορεύουν την ίδια την ιδέα της τεχνητής νοημοσύνης ανοιχτού κώδικα».
Πρόσφατες συζητήσεις στο Bletchley Park AI Security Summit δείχνουν ότι τουλάχιστον ορισμένοι υπεύθυνοι χάραξης πολιτικής μπορεί τώρα να κινούνται προς αυτή την κατεύθυνση. Αλλά άλλοι ειδικοί προτείνουν ελαφρύτερες παρεμβάσεις που θα βελτιώσουν την ασφάλεια χωρίς να σκοτώσουν τον ανταγωνισμό.
Η Wendy Hall, Καθηγήτρια Επιστήμης Υπολογιστών Regius στο Πανεπιστήμιο του Σαουθάμπτον και μέλος του συμβουλευτικού οργάνου του ΟΗΕ για την τεχνητή νοημοσύνη, λέει ότι δεν θέλουμε να ζούμε σε έναν κόσμο όπου μόνο μεγάλες εταιρείες διαχειρίζονται τη γενετική τεχνητή νοημοσύνη. Επίσης, δεν θέλουμε να επιτρέψουμε στους χρήστες να κάνουν ό,τι θέλουν με ανοιχτά μοντέλα. «Πρέπει να βρούμε έναν συμβιβασμό», προτείνει.
Η προτιμώμενη λύση του, η οποία κερδίζει έλξη αλλού, είναι να ρυθμίζει τα μοντέλα παραγωγής τεχνητής νοημοσύνης με τον ίδιο τρόπο όπως η αυτοκινητοβιομηχανία. Οι ρυθμιστικές αρχές επιβάλλουν αυστηρά πρότυπα ασφαλείας στις αυτοκινητοβιομηχανίες πριν από την κυκλοφορία νέων μοντέλων. Αλλά επιβάλλουν ευθύνες στους οδηγούς και τους θεωρούν υπεύθυνους για τις πράξεις τους. «Αν κάνεις κάτι ανεύθυνο και επιβλαβές με ανοιχτό κώδικα, θα πρέπει να πας φυλακή – όπως και αν σκότωσες κάποιον ενώ οδηγούσες αυτοκίνητο», λέει ο Χολ.
Σίγουρα θα πρέπει να αντισταθούμε στην τυραννία του δυαδικού συστήματος όταν πρόκειται να σκεφτούμε μοντέλα τεχνητής νοημοσύνης. Τόσο τα ανοιχτά όσο και τα κλειστά μοντέλα έχουν τα πλεονεκτήματα και τα μειονεκτήματά τους. Καθώς οι δυνατότητες αυτών των μοντέλων εξελίσσονται, θα πρέπει να προσαρμόζουμε συνεχώς τη στάθμιση μεταξύ ανταγωνισμού και ελέγχου.