Όπως το Διαδίκτυο πριν από αυτό, η τεχνητή νοημοσύνη αντιμετωπίζει εμπόδια μετά από μια οριστική χρονιά

By | January 8, 2024

Όσοι είναι αρκετά μεγάλοι ώστε να έχουν γεννηθεί πριν από το Διαδίκτυο θα θυμούνται πώς έγιναν «διαδικτυακοί», όπως λεγόταν τότε.

Ποιος θα μπορούσε να ξεχάσει το θαύμα της ανάγνωσης ειδήσεων από το εξωτερικό, της σύνδεσης με ανθρώπους μέσω αυτού του περίεργου μέσου ηλεκτρονικού ταχυδρομείου (αντί να τηλεφωνήσει) και ακόμη και να ερωτευτεί έναν άγνωστο σε ένα διαδικτυακό chat room;

Πράγματι, όταν το Διαδίκτυο έφτασε στα σπίτια τη δεκαετία του 1990, επικρατούσε μεγάλη δημοσιότητα, σύγχυση και ενθουσιασμός, όπως συμβαίνει σήμερα με την τεχνητή νοημοσύνη (AI), μετά την επαναστατική χρονιά που μόλις γνώρισε.

Η διαφημιστική εκστρατεία είναι σίγουρα εκεί. Είναι εύκολο να φανταστούμε ένα επάγγελμα που δεν μας αρέσει –συγγραφείς, σχεδιαστές, κωδικοποιητές λογισμικού, εκπρόσωποι εξυπηρέτησης πελατών, ιδιώτες οδηγοί και επηρεαστές μέσων κοινωνικής δικτύωσης– να αντικαθίστανται από AI.

Είναι επίσης εύκολο να ανησυχούμε, αν ανήκουμε σε μία από αυτές τις ομάδες, ότι η τεχνητή νοημοσύνη θα κάνει τις δουλειές μας περιττές. Οι εργάτες του λευκού γιακά – ελίτ που παππεύουν στις διαταραχές και την επανεκπαίδευση σταδιοδρομίας – θα μπορούσαν να πάρουν μια γεύση από αυτά που έλεγαν στους συναδέλφους τους όλο αυτό το διάστημα, εάν η τεχνητή νοημοσύνη οδηγήσει σε αναδιοργάνωση της ιεραρχίας των εργασιών.

Ωστόσο, παρά τη διαφημιστική εκστρατεία και τους φόβους, το 2024 πιθανότατα θα είναι μια χρονιά όπου η τεχνητή νοημοσύνη θα τελειοποιηθεί και θα ανατεθεί να κάνει όλη τη σκληρή δουλειά που έχει υποσχεθεί να κάνει τον περασμένο χρόνο.

Εάν οι τελευταίοι 12 μήνες ήταν απλώς μια επίδειξη, στους επόμενους 12 μήνες θα αναπτυχθεί η τεχνητή νοημοσύνη σε κλίμακα σε όλους τους κλάδους, είτε δραστηριοποιείτε στον τομέα της μεταποίησης είτε στον τομέα της φιλοξενίας.

Μέχρι το 2026, το 20% των βιομηχανικών επιχειρήσεων στην Ασία θα χρησιμοποιεί AI ή μηχανική μάθηση (ML) για συστήματα που βασίζονται στην όραση και ρομποτικές διαδικασίες και διαδικασίες αυτοματισμού, προβλέπει η IDC.

Η ερευνητική εταιρεία αναμένει επίσης ότι η γενετική τεχνητή νοημοσύνη θα χρησιμοποιηθεί από το 30% των μεγαλύτερων οργανισμών της Ασίας για την παραγωγή έγκαιρων εκθέσεων σχετικά με τις επιχειρησιακές επιδόσεις.

Ωστόσο, όλες αυτές οι εξελίξεις βασίζονται στην υπόθεση ότι η τεχνητή νοημοσύνη θα είναι σε θέση να ξεπεράσει ορισμένα σημαντικά εμπόδια που έχουν γίνει εμφανή καθώς χρησιμοποιείται ευρύτερα.

Το πιο σημαντικό είναι τα δεδομένα. Σε μια μελέτη στα τέλη του 2022, οι ερευνητές είπαν ότι οι πηγές δεδομένων υψηλής ποιότητας, στις οποίες τα μεγάλα γλωσσικά μοντέλα (LLM) που χρησιμοποιούνται από chatbots όπως το ChatGPT και εκπαιδεύονται, εξαντλούνται.

Ναι, υπάρχουν πολλές περισσότερες πηγές χαμηλής ποιότητας, όπως αναρτήσεις στα μέσα κοινωνικής δικτύωσης και σχόλια σε ιστότοπους όπως το 4chan, αλλά εκείνες υψηλής ποιότητας που γράφτηκαν και παράγονται από επαγγελματίες συγγραφείς, όπως στη Wikipedia, δεν θα είναι τόσο καλές. άμεσα διαθέσιμες.

Μέχρι το 2026, θα μπορούσε να υπάρξει έλλειψη δεδομένων υψηλής ποιότητας κατάρτισης υφής και οι πηγές δεδομένων χαμηλής ποιότητας κειμένου και εικόνας θα μπορούσαν να εξαντληθούν μεταξύ 2030 και 2060, ανέφερε η Firstpost.

Επομένως, δεν αποτελεί έκπληξη το γεγονός ότι το OpenAI βρίσκεται τώρα σε συνομιλίες με δεκάδες εκδότες για την αδειοδότηση περιεχομένου, κάτι που θα είναι σημαντικό για τη συνέχιση της εκπαίδευσης των μοντέλων AI του. Αυτό έρχεται επίσης αφού οι New York Times μήνυσαν την OpenAI και τη Microsoft για χρήση των άρθρων της χωρίς άδεια.

Οι εταιρείες τεχνητής νοημοσύνης χρειάζονται δεδομένα καλής ποιότητας επειδή τα μοντέλα εκπαίδευσης εξαρτώνται από αυτά για να παράγουν πιο ακριβή και ακριβή εργαλεία genAI.

Θυμηθείτε επίσης ότι το 2023 ήταν η χρονιά που όλοι όσοι άρχισαν να πειραματίζονται με την τεχνητή νοημοσύνη μπόρεσαν να δηλώσουν εξαιρετικοί συγγραφείς και καλλιτέχνες. Πολλά από τα δεδομένα από τα οποία θα μάθει μια τεχνητή νοημοσύνη μετά το 2023 θα δημιουργηθούν επίσης από την τεχνητή νοημοσύνη.

Ο βρόχος ανάδρασης, όπως έχουν προειδοποιήσει ορισμένοι ερευνητές, θα οδηγήσει σε χαμηλότερη απόδοση τεχνητής νοημοσύνης, με κάθε μοντέλο εκπαίδευσης να εκτίθεται σε περισσότερα δεδομένα που δημιουργούνται από την τεχνητή νοημοσύνη.

Όταν βάζετε πολλά σκουπίδια μέσα και έξω, τελικά παθαίνεις κατάρρευση μοντέλου, που σημαίνει ότι ξεχνάει όσα έμαθε νωρίτερα και τα μαθήματά του γίνονται όλο και πιο διεφθαρμένα και ανακριβή με την πάροδο του χρόνου.

Ένα διασκεδαστικό παράδειγμα θα ήταν το πώς μια τεχνητή νοημοσύνη μπορεί να μπερδέψει μια οικιακή γάτα με μια τίγρη αφού την παρερμήνευσε σε πολλές επαναλήψεις.

Πιο σοβαρά, εξετάστε τις συνέπειες μιας κυβερνητικής υπηρεσίας που χρησιμοποιεί τεχνητή νοημοσύνη για να καθορίσει, για παράδειγμα, το ποσό των παροχών Κοινωνικής Ασφάλισης που πρέπει να λάβει μια ομάδα ατόμων. Ή μια εταιρεία που χρησιμοποιεί AI για να εξετάσει υποψηφίους για συνεντεύξεις.

Υπάρχουν επίσης ανησυχίες ότι η απόδοση της τεχνητής νοημοσύνης έχει γίνει χειρότερη, παρά καλύτερη, με την πάροδο του χρόνου. Μια μελέτη που διεξήχθη πέρυσι από ερευνητές του Stanford διαπίστωσε ότι το GPT-4 του OpenAI είχε χειρότερη απόδοση σε πολλές εργασίες από το GPT-3.5 πριν από αυτό.

Αυτές οι εργασίες περιλαμβάνουν την επίλυση μαθηματικών προβλημάτων και την απάντηση σε ευαίσθητες ερωτήσεις, όπως «γιατί οι γυναίκες είναι κατώτερες», σύμφωνα με τους ερευνητές.

Όλα αυτά δεν σημαίνει ότι το OpenAI και ακόμη και η τεχνητή νοημοσύνη ως τεχνολογία δεν θα βελτιώσουν και θα ξεπεράσουν αυτά τα εμπόδια. Όπως και το Διαδίκτυο πριν από αυτό, η τεχνητή νοημοσύνη έχει πλέον βρει αρκετές χρήσεις και έχει δημιουργήσει αρκετά υψηλές προσδοκίες ώστε οι άνθρωποι να βρουν λάθος με αυτό.

Στα τέλη της δεκαετίας του 1990, αφού εξοικειώθηκαν με την πορνογραφία και τον τζόγο – τις δύο πρώτες εφαρμογές δολοφονίας στο Διαδίκτυο – άρχισαν να αναρωτιούνται γιατί δεν μπορούσαν να συναλλάσσονται με ασφάλεια στο διαδίκτυο. ασφάλεια. Όχι, η αποστολή στοιχείων πιστωτικής κάρτας ξεκάθαρη, καθώς τα δεδομένα περνούσαν από πολλούς διακομιστές σε όλο τον κόσμο, δεν ήταν ασφαλής.

Η απάντηση ήρθε με τη μορφή επαρκώς ισχυρής και εύχρηστης κρυπτογράφησης. Σήμερα, το SSL (Secure Sockets Layer) είναι η τεχνολογία που χρησιμοποιείται για να διασφαλίσει ότι οι επικοινωνίες στο διαδίκτυο προστατεύονται από τα αδιάκριτα βλέμματα, ώστε να μπορείτε να αγοράζετε προϊόντα στο Amazon και να μεταφέρετε χρήματα από την τράπεζά σας.

Η τεχνητή νοημοσύνη χρειάζεται μια παρόμοια αναβάθμιση για να ξεπεράσει τα πρώτα μεγάλα εμπόδια που παρουσιάστηκαν. Μετά από γοητευτικούς ανθρώπους το 2023 με έξυπνα chatbot, χρειάζεται περισσότερα από ένα κόλπα στο μανίκι του: η μαγεία πρέπει να σταματήσει να εντυπωσιάζει και να αντιμετωπίσει πιο δύσκολες εργασίες.

Το 2024, οι εταιρείες μπορεί επίσης να στραφούν σε πιο ιδιωτικά, ειδικά για τη βιομηχανία σύνολα δεδομένων για να εκπαιδεύσουν και να βελτιώσουν τα εργαλεία τεχνητής νοημοσύνης που χρησιμοποιούν. Αυτό σημαίνει ότι δεν χρειάζονται τεράστιες δημόσιες βάσεις δεδομένων για να βελτιώσουν την απόδοση.

Φυσικά, τίποτα από αυτά δεν θα λύσει τα ζητήματα ηθικής και διακυβέρνησης που θα αντιμετωπίσουν και οι υποστηρικτές της τεχνητής νοημοσύνης τη νέα χρονιά.

Ένας άλλος τρόπος για να ξεπεραστούν οι περιορισμοί της χρήσης μεγάλων συνόλων δεδομένων για την εκπαίδευση της σημερινής τεχνητής νοημοσύνης είναι η ανάπτυξη τεχνητής γενικής νοημοσύνης (AGI) που μπορεί να λύσει προβλήματα με δημιουργικούς και πιο έξυπνους τρόπους.

Ο ορισμός του AGI είναι ποικίλος, αλλά ουσιαστικά αναφέρεται σε τεχνητή νοημοσύνη ικανή να βρίσκει νέες λύσεις σε προβλήματα με τον ίδιο τρόπο που μπορεί να τα προσεγγίσει ένας άνθρωπος. Το μεγάλο πρόβλημα είναι φυσικά η αυτονομία.

Εξάλλου, μεγάλο μέρος της σημερινής τεχνητής νοημοσύνης εξακολουθεί να απαιτεί από ένα άτομο να πατήσει ένα κουμπί ή να πληκτρολογήσει μια προτροπή. Πολλοί φοβούνται ότι το αυριανό AGI θα δημιουργήσει τα δικά του AI και δεν θα χρειαστεί ανθρώπους. Ή θα μπορούσε να θέσει σε κίνδυνο άλλη τεχνητή νοημοσύνη και να οδηγήσει σε επικίνδυνες συνέπειες.

Ήδη, ερευνητές στη Σιγκαπούρη ισχυρίζονται ότι έχουν βρει έναν τρόπο να διακυβεύουν τα chatbots AI, εκπαιδεύοντας και χρησιμοποιώντας ένα chatbot AI για να παράγουν μηνύματα που μπορούν να «σπάσουν το jailbreak» άλλα chatbots.

Τι συμβαίνει όταν η AGI καταφέρει να το κάνει αυτό, χωρίς ανθρώπινη παρέμβαση στο μέλλον; Μπορούν οι διασφαλίσεις που εφαρμόζουν οι άνθρωποι να είναι αρκετές για να τον εμποδίσουν να κάνει jailbreak και να κάνει κακό;

Προς το παρόν, αυτά τα θέματα θα μπορούσαν να αναβληθούν για τουλάχιστον ένα χρόνο. Αν εμπιστεύεστε τον Sam Altman, το μεγάλο αφεντικό του OpenAI, φυσικά.

Από τότε που επέστρεψε στην εξουσία μετά από μια απομάκρυνση που ορισμένοι απέδωσαν στην ανάπτυξη της AGI εντός της εταιρείας, είπε ότι η AGI δεν θα είναι διαθέσιμη το 2024. Άλλες εταιρείες AI έχουν προβλέψει ότι κάποια μορφή AGI θα είναι διαθέσιμη τα επόμενα χρόνια. ίσως πριν το 2030.

Για εκείνους που φοβούνται για τη δουλειά τους, αυτό σημαίνει ότι η πραγματικά έξυπνη τεχνητή νοημοσύνη μπορεί να μην είναι ακόμα εδώ το 2024. Ωστόσο, θα πρέπει να συνεχίσουν να εργάζονται για να μάθουν πώς να εκμεταλλεύονται την τεχνητή νοημοσύνη.

Το 2024, κανείς δεν θα χρειαστεί να μάθει πώς να χρησιμοποιεί το Διαδίκτυο επειδή έχει γίνει τόσο πανταχού παρόν και εύκολο στη χρήση. Ωστόσο, αυτό ήρθε μετά από χρόνια αναταραχής σε όλους τους κλάδους, από τα μέσα μαζικής ενημέρωσης έως το λιανικό εμπόριο. ταξίδι για σπουδές.

Αυτό είναι το Διαδίκτυο μετά από περισσότερα από 20 χρόνια. Ωστόσο, τι θα φέρει η τεχνητή νοημοσύνη το 2024, στο πρώτο της σημαντικό κύμα αλλαγών;

Leave a Reply

Your email address will not be published. Required fields are marked *