Η τεχνητή νοημοσύνη έχει ένα πρόβλημα εμπιστοσύνης: συναντήστε τις νεοφυείς επιχειρήσεις που προσπαθούν να το λύσουν

By | January 17, 2024

Καθώς ο επενδυτικός κόσμος έχει στρέψει την προσοχή του στην τεχνητή νοημοσύνη το 2023, υπάρχει μια άβολη αλήθεια για κάθε οργανισμό που προσπαθεί να εφαρμόσει την τεχνολογία στη ροή εργασίας του: έχει πρόβλημα εμπιστοσύνης.

Τα πιο πρόσφατα μοντέλα τεχνητής νοημοσύνης, όπως το GPT-4 του OpenAI, το οποίο τροφοδοτεί το ChatGPT, είναι γνωστά για το «εκρηκτικό» (industry-peak for «εφεύρεση πραγμάτων»). Ακόμη πιο παραδοσιακά συστήματα μπορεί να είναι αναξιόπιστα και επομένως να μην είναι κατάλληλα για ανάπτυξη σε πολλές επιχειρηματικές περιπτώσεις.

«Αν χρησιμοποιήσω την τεχνητή νοημοσύνη για να προτείνω παπούτσια σε έναν χρήστη για εμφάνιση σε έναν ιστότοπο διαδικτυακών αγορών με βάση την προηγούμενη συμπεριφορά του, το AI θα το κάνει ένα εκατομμύριο φορές καλύτερα από ό,τι θα μπορούσε να το κάνει οποιοσδήποτε άνθρωπος», λέει ο Ken Cassar, Διευθύνων Σύμβουλος. από την Umnai με έδρα το Λονδίνο, μια startup που εργάζεται στο σχεδιασμό μιας νέας αρχιτεκτονικής AI.

«Αν το μοντέλο είναι 85% ακριβές, αυτό είναι υπέροχο: μια αλλαγή παραδείγματος καλύτερη από ό,τι θα μπορούσαν να κάνουν οι άνθρωποι σε κλίμακα. Αλλά αν προσγειώνετε αεροπλάνα, το 85% δεν είναι καλό.

Για να αντιμετωπίσουν το πρόβλημα, νεοφυείς επιχειρήσεις όπως η Umnai προσπαθούν να δημιουργήσουν πιο ακριβή, αξιόπιστα και χρήσιμα μοντέλα τεχνητής νοημοσύνης, ενώ άλλες επικεντρώνονται στην κατασκευή νέων συστημάτων που είναι λιγότερο πιθανό να αποκτήσουν υπεράνθρωπες ικανότητες και να παρουσιάζουν υπαρξιακό κίνδυνο για την κοινωνία.

Το πρόβλημα του μαύρου κουτιού

Ένα κεντρικό πρόβλημα με τα μοντέλα τεχνητής νοημοσύνης που χρησιμοποιούνται σήμερα είναι γνωστό ως «μαύρη πυγμαχία».

Τα συστήματα λαμβάνουν τεράστιες ποσότητες δεδομένων τα οποία στη συνέχεια υποβάλλονται σε περίπλοκες διαδικασίες υπολογισμού. Όταν η τεχνητή νοημοσύνη δημιουργεί μια απάντηση ή ένα αποτέλεσμα, δεν υπάρχει τρόπος να γνωρίζουμε πώς κατέληξε σε αυτήν την απόφαση.

Ο Cassar λέει ότι αυτή η πτυχή των συστημάτων AI δημιουργεί πρόβλημα εμπιστοσύνης επειδή έρχεται σε αντίθεση με το ανθρώπινο ένστικτο να λαμβάνει αποφάσεις «βασισμένες σε κανόνες».

«Αν είμαι τράπεζα και εγκρίνω δάνεια και έχω 10 σημεία δεδομένων, μπορώ να δημιουργήσω ένα σύστημα βασισμένο σε κανόνες για να το κάνω αυτό», λέει.

«Αν ξαφνικά αρχίσω να λαμβάνω υπόψη τη δραστηριότητα των ανθρώπων στα μέσα κοινωνικής δικτύωσης και κάθε είδους άλλους παράγοντες, τότε έχω πάρα πολλά δεδομένα για να το κάνω αυτό. Έτσι, αυτό στο οποίο είναι πολύ καλό το AI είναι η εξερεύνηση αυτών των τεράστιων ποσοτήτων δεδομένων και η εύρεση της γνώσης. Αλλά επειδή είναι ένα μαύρο κουτί, αντιμετωπίζει ένα εμπόδιο εμπιστοσύνης.

Ο Cassar λέει στο Sifted ότι ο τεχνικός συνιδρυτής του Angelo Dalli σχεδίασε μια νέα «νευρο-συμβολική» αρχιτεκτονική AI που επιτρέπει στον χρήστη να δει καλύτερα πώς το σύστημα δημιούργησε την παραγωγή του.

Αυτό, εξηγεί, λειτουργεί συνδυάζοντας νευρωνικά δίκτυα (ο τύπος τεχνολογίας που τροφοδοτεί μεγάλα μοντέλα όπως το GPT-4) και λογική που βασίζεται σε κανόνες. Υποδιαιρεί ένα μεγάλο έργο – όπως η αξιολόγηση της πιστοληπτικής ικανότητας ενός ατόμου – σε μικρά νευρωνικά δίκτυα οργανωμένα σε «ενότητες», όπως η ηλικία, το επίπεδο εκπαίδευσης και το εισόδημα.

Όταν το σύστημα παρέχει στη συνέχεια ένα αποτέλεσμα, ο χρήστης μπορεί στη συνέχεια να ρωτήσει πώς έλαβε την απόφασή του παιχνίδι με παιχνίδι.

Ένα μοντέλο που γίνεται καλύτερο, όχι χειρότερο

Το Aligned AI, με έδρα την Οξφόρδη, είναι μια άλλη startup που προσπαθεί να βελτιώσει την εμπιστοσύνη στα συστήματα AI. Αλλά σε αντίθεση με το Umnai, δεν πρόκειται για την κατασκευή μιας νέας αρχιτεκτονικής μοντέλου AI από την αρχή. Κατασκευάζει ένα σύστημα που λέει ότι μπορεί να συνεργαστεί με προϋπάρχοντα μοντέλα για να βελτιώσει την αξιοπιστία και την ποιότητα της παραγωγής τους.

Η πλειονότητα των συστημάτων τεχνητής νοημοσύνης δεν φτάνει ποτέ στην αγορά επειδή αποδεικνύονται πολύ «εύθραυστα» όταν έρχονται αντιμέτωπα με δεδομένα πραγματικού κόσμου διαφορετικά από αυτά στα οποία εκπαιδεύτηκαν, λέει η συνιδρυτής και διευθύνουσα σύμβουλος Rebecca Gorman.

«Σπάζουν όταν συναντούν τον πραγματικό κόσμο. Επτά στα δέκα μοντέλα που έχουν σχεδιαστεί για εμπορική χρήση δεν βγαίνουν ποτέ στην αγορά», είπε στο Sifted.

Η τεχνολογία του Aligned AI έχει σχεδιαστεί για να βελτιώνει τα αποτελέσματα που παράγονται από προϋπάρχοντα μοντέλα διδάσκοντας στο σύστημα να γενικεύει και να προεκθέτει τους κανόνες που έχει διδαχθεί, λέει ο συνιδρυτής και επικεφαλής τεχνολογίας Stuart Armstrong.

«Η κεντρική ιδέα είναι ότι τα AI δεν γενικεύουν τον τρόπο που το κάνουν οι άνθρωποι. Αν θέλουμε μια τεχνητή νοημοσύνη να κάνει κάτι όπως “μην είσαι ρατσιστής”, της δίνουμε πολλά παραδείγματα ρατσιστικού λόγου, της δίνουμε πολλά παραδείγματα μη ρατσιστικού λόγου. Και λέμε: «Περισσότερο από αυτό, λιγότερο από αυτό», εξηγεί.

“Το πρόβλημα είναι ότι αυτά τα παραδείγματα είναι ξεκάθαρα σε εμάς ως προς το τι σημαίνουν, αλλά τα AI δεν γενικεύουν τις ίδιες έννοιες με εμάς από αυτά τα παραδείγματα, οπότε μπορείτε να τα κάνετε jailbreak.”

Ενώ εταιρείες όπως το OpenAI έχουν ομάδες αφοσιωμένες στην προσπάθεια να κάνουν τα συστήματά τους πιο ευθυγραμμισμένα με τις ανθρώπινες αξίες, οι λεγόμενες τεχνικές jailbreaking έχουν χρησιμοποιηθεί επιτυχώς για να κάνουν το ChatGPT να παράγει πράγματα όπως η πορνογραφία και η παραπληροφόρηση.

Η Aligned AI λέει ότι η τεχνολογία της επιτρέπει στους ανθρώπους να δίνουν ζωντανή ανατροφοδότηση στο σύστημα καθώς λαμβάνει αποφάσεις, κάτι που στη συνέχεια βοηθά το AI να επεκτείνει τις έννοιες από τα δεδομένα εκπαίδευσής του, να βελτιώνει συνεχώς τα αποτελέσματά του.

Ο Gorman λέει ότι αυτή η υποβοηθούμενη από τον άνθρωπο, αυτοβελτιούμενη τεχνητή νοημοσύνη έρχεται σε πλήρη αντίθεση με την πλειονότητα των συστημάτων, τα οποία τείνουν να υποβαθμίζονται με την πάροδο του χρόνου λόγω κακής προσαρμογής σε νέα δεδομένα, που σημαίνει ότι πρέπει να ανακυκλωθούν.

Είμαστε «σούπερ, σούπερ γαμημένοι»;

Η επίλυση προβλημάτων όπως αυτά, που καθιστούν τα μοντέλα τεχνητής νοημοσύνης δύσκολα στη χρήση στον επιχειρηματικό κόσμο, θα μπορούσε να αποτελέσει μια τεράστια επιχειρηματική ευκαιρία καθώς περισσότερες εταιρείες βιάζονται να υιοθετήσουν την τεχνολογία, αλλά ορισμένες νεοφυείς επιχειρήσεις προσπαθούν να λύσουν αυτά που θεωρούν ότι είναι πιο υπαρξιακά προβλήματα.

Ο Connor Leahy, ιδρυτής της λονδρέζικης startup Conjecture, είπε στο Sifted πέρυσι ότι «είμαστε σούπερ, πολύ μπερδεμένοι» εάν τα μοντέλα τεχνητής νοημοσύνης συνεχίσουν να γίνονται πιο ισχυρά χωρίς να γίνονται πιο ελεγχόμενα.

Η εταιρεία του προσπαθεί επί του παρόντος να αναπτύξει μια νέα προσέγγιση για την τεχνητή νοημοσύνη που ο Leahy αποκαλεί «περιορισμένη».

Η ιδέα είναι ουσιαστικά να παρέχουμε μια εναλλακτική λύση σε συστήματα γενικής χρήσης όπως το GPT-4, τα οποία εκπαιδεύονται σε περισσότερες πληροφορίες από όσες θα μπορούσε ποτέ να γνωρίζει οποιοσδήποτε άνθρωπος και μπορούν να ανταποκριθούν σε ένα ευρύ φάσμα διαφορετικών αιτημάτων.

«Η προεπιλεγμένη άποψη του τι θα έπρεπε να είναι η τεχνητή νοημοσύνη είναι αυτή ενός αυτόνομου πράκτορα μαύρου κουτιού, ένα είδος σταγόνας που ζητάς να κάνει πράγματα και μετά τρέχει και κάνει τα πράγματα για σένα», εξηγεί ο Leahy.

«Η άποψή μας είναι ότι αυτός είναι απλώς ένας θεμελιωδώς κακός και επικίνδυνος τρόπος για την κατασκευή ευφυών και ισχυρών συστημάτων. Δεν θέλετε το υπερέξυπνο σύστημά σας να είναι ένας παράξενος εγκέφαλος σε ένα βάζο που δεν καταλαβαίνετε.

Η εικασία λύνει αυτό το πρόβλημα αναλύοντας τα συστήματα τεχνητής νοημοσύνης σε ξεχωριστές διαδικασίες που μπορούν στη συνέχεια να συνδυαστούν από έναν άνθρωπο χρήστη για να ολοκληρώσει μια δεδομένη εργασία, με την ιδέα ότι κανένα μέρος του συστήματος δεν είναι πιο ισχυρό από έναν ανθρώπινο εγκέφαλο.

Από σχεδίαση, ένα τέτοιο σύστημα δεν θα ήταν “γενικού σκοπού”, αλλά ο Leahy πιστεύει ότι εκτός από μια ασφαλέστερη άποψη της τεχνητής νοημοσύνης από τα πιο εκτεταμένα συστήματα, είναι στην πραγματικότητα ένα πιο πολύτιμο προϊόν για έναν επαγγελματία πελάτη, επειδή ένα τέτοιο σύστημα είναι ευκολότερος ο αξιόπιστος έλεγχος.

«Αυτό που θέλουν οι επιχειρήσεις είναι να μπορούν να αυτοματοποιήσουν μια ροή εργασίας που επί του παρόντος δεν μπορεί να αυτοματοποιηθεί χρησιμοποιώντας παραδοσιακό λογισμικό. Θέλουν να είναι αξιόπιστο, επαληθεύσιμο και, αν κάτι πάει στραβά, θέλουν να είναι αποσφαλμώσιμο», λέει.

«Το προϊόν που οι άνθρωποι, από την εμπειρία μου, θέλουν πραγματικά στην επιχείρηση δεν είναι ένα ιδιόρρυθμο μικρό εγκέφαλο σε ένα βάζο που έχει τη δική του προσωπικότητα και παραισθήσεις τρελές φανταστικές ιστορίες».

Category: A.I

Leave a Reply

Your email address will not be published. Required fields are marked *