Έτσι τελειώνει το Διαδίκτυο

By | January 17, 2024

Ο Νιου Γιορκ Ταιμς μηνύει το OpenAI για παραβίαση πνευματικών δικαιωμάτων, υποστηρίζοντας ότι ο τρόπος με τον οποίο σχεδιάζονται μοντέλα επόμενης γενιάς όπως το ChatGPT παραβιάζει συστηματικά τα δικαιώματά του με τρόπο που προκαλεί σοβαρή οικονομική βλάβη στα μέσα ενημέρωσης.

Σε αυτό το σημείο, δεδομένου ότι γράφω στα ΜΜΕ για να ζήσω, μάλλον θα έπρεπε να γράψω μια θυελλώδη υπεράσπιση του Νιου Γιορκ Ταιμς αναλάβετε δράση, καταπολεμήστε την κακή μεγάλη τεχνολογία και προστατέψτε το οικοσύστημα πληροφοριών μας. Το πρόβλημα είναι ότι μεγάλο μέρος αυτής της επιδίωξης είναι παράλογη, κραυγαλέα αυτοεξυπηρετούμενη και βασίζεται σε μια παρανόηση του πώς λειτουργούν αυτά τα μοντέλα. Αυτό θα μπορούσε να κινδυνεύσει να μπλοκάρει όλα τα πιθανά οφέλη της τεχνολογίας, με μοναδικό στόχο τη στήριξη των κερδών (τα οποία, τελικά) Νιου Γιορκ Ταιμς είναι αρκετά καλοί έτσι).

Υπάρχουν θεμιτές διαμάχες μεταξύ των μέσων και της τεχνολογίας για την τεχνητή νοημοσύνη. Η επιθυμία των AI να σας δώσουν μια άμεση απάντηση, αντί να σας συνδέσουν με έναν ιστότοπο, σπάει τη συμφωνία μεταξύ των μηχανών αναζήτησης και των ιστότοπων – οι πρώτες θα έσπαζαν το περιεχόμενό σας, ναι, αλλά θα κατευθύνουν τους χρήστες σε εσάς (που θα έβλεπαν τότε διαφημίσεις ). και ίσως ακόμη και εγγραφή).

Επομένως, υπάρχει καλός λόγος για τις εταιρείες πολυμέσων να ζητούν αποζημίωση εάν η συλλογή ειδήσεων σε πραγματικό χρόνο τους έχει έσοδα από μεγάλη τεχνολογία. Αλλά το Νιου Γιορκ ΤαιμςΗ πραγματική δοκιμή είναι μια πολύ μεγαλύτερη αρπαγή εξουσίας από αυτή: όταν ένας άνθρωπος δημοσιογράφος διαβάζει μερικά άρθρα από μια αντίπαλη δημοσίευση και στη συνέχεια γράφει τη δική του εκδοχή ενός άρθρου σχετικά με αυτό το θέμα, είναι απολύτως νόμιμο, υπό τον όρο ότι το ενσωματώνει στη δική του έκδοση. . λόγια.

Συνολικά, αυτό τουλάχιστον προσπαθεί να κάνει ένα AI. Μπορεί να «εκπαιδευτεί» σε ένα τεράστιο σύνολο δεδομένων, αλλά σε αντίθεση με το πώς πιστεύουμε οι περισσότεροι από εμάς ότι λειτουργεί, δεν διατηρεί αυτά τα δεδομένα και δεν τα αναζητά όταν τίθεται μια ερώτηση. Αντίθετα, είναι καλύτερο να σκεφτόμαστε τα σύγχρονα γενετικά AI ως «πικάντικη αυτόματη συμπλήρωση» – μια βελτιωμένη έκδοση των προτάσεων των εφαρμογών ανταλλαγής μηνυμάτων και email σχετικά με τον τρόπο συμπλήρωσης προτάσεων.

Το AI δημιουργεί βάρη για τους καλύτερους ή πιο πιθανούς συνδυασμούς λέξεων για να απαντήσει σε μια σειρά λέξεων που θέτουν ένα ερώτημα, και αυτές είναι που αναζητούνται. Προσπαθώντας να αποτρέψουν το να ανακατευτούν πράγματα που δεν ταιριάζουν, οι προγραμματιστές τεχνητής νοημοσύνης προσπαθούν να ελαχιστοποιήσουν τις «παραισθήσεις», τις συνθήκες στις οποίες οι AI δίνουν μια πειστική αλλά εντελώς λανθασμένη απάντηση.

Για να διασφαλιστεί ότι τα AI δεν δημιουργούν ποτέ συγκεκριμένες φράσεις, θα πρέπει να υπάρχει μια βάση δεδομένων στην οποία θα μπορούσε να αναζητήσει – η οποία δεν υπάρχει, επειδή δεν υπάρχει κεντρικό μητρώο πληροφοριών που προστατεύονται από πνευματικά δικαιώματα. συγγραφέας. Μια τέτοια βάση δεδομένων δεν θα ήταν ποτέ δυνατή: για παράδειγμα, εάν έχετε γράψει μερικές σημειώσεις για να ανανεώσετε τη μνήμη σας ή έχετε κρατήσει για λίγο ημερολόγιο, αυτό προστατεύεται από πνευματικά δικαιώματα.

Ο Νιου Γιορκ ΤαιμςΤα κύρια παραδείγματα στην περίπτωσή του φαίνεται να προέρχονται από άρθρα υψηλού προφίλ που έχουν ήδη αναπαραχθεί στον Ιστό – μια πρόταση από το Snow Fall, μια ιστορία πολυμέσων για μια χιονοστιβάδα που δημοσιεύτηκε με μεγάλη επιτυχία το 2012, κατέληξε να είναι γεμάτη συνέπειες. Το ChatGPT βαραίνει επειδή έχει ήδη αντιγραφεί ευρέως στο Διαδίκτυο.

Αυτές οι αγωγές δεν βοηθούν τα μέσα ενημέρωσης, επειδή η τεχνολογία έχει τη συνήθεια να πιστεύει ότι η κάλυψη των μέσων είναι αυτοεξυπηρετούμενη – οι ξένοι υποτιμούν την ανεξαρτησία των δημοσιογράφων από τις μητρικές εταιρείες τους. Αλλά εστιάζοντας υπερβολικά στις δικές μας μάχες, αποδυναμώνουμε την κάλυψη της τεχνολογίας: Η κάλυψη στις πλατφόρμες μέσων κοινωνικής δικτύωσης παρεμποδίστηκε από τις αδιάκοπες (και συχνά ηλίθιες) μάχες μεταξύ μητρικών εταιρειών του newsroom και των ίδιων πλατφορμών.

Έτσι, ακόμα κι αν είναι Νιου Γιορκ Ταιμς περίπτωση που έχει καταναλώσει το μεγαλύτερο μέρος του οξυγόνου στην κάλυψη των μέσων ενημέρωσης, υπάρχει μια πολύ μεγαλύτερη που αγνοήθηκε — και ξεκινά με συνταγές φοντάν στο διαδίκτυο.

Το πρόβλημα, το οποίο ανακάλυψε ο συγγραφέας Zoah Hedges-Stocks, είναι ότι μεγάλο μέρος του περιεχομένου συνταγών στο Διαδίκτυο γράφεται πλέον από ρομπότ χαμηλής ποιότητας που αναδίδουν απλά παλιές παλιές μπάλες. Αυτό που παρατήρησε ήταν ότι παράλληλα με τα άρθρα που συνέκριναν τη διαδικασία παρασκευής φοντάν με αυτή της καραμέλας, υπήρχαν επίσης άρθρα που συνέκριναν τη διαδικασία παρασκευής φοντάν με την κατασκευή “scrimgeour”, μια άλλη φαινομενική σκωτσέζικη απόλαυση που δεν είχε ακούσει ποτέ.

Αυτό που συνέβη ήταν ότι η AI είχε μπερδέψει τη χρήση της λέξης “fudge” σε διαφορετικά πλαίσια – “Cornelius Fudge” είναι το όνομα του Υπουργού Μαγείας στο βιβλίο της JK Rowling. Χάρρυ Πόττερ σειρά, μέχρι που αντικαταστάθηκε από τον πιο κακό «Rufus Scrimgeour». Δεν υπάρχει κανένα προϊόν καραμέλας που ονομάζεται “scrimgeour”, αλλά οι κακές τεχνητές νοημοσύνης έχουν γεφυρώσει το χάσμα του περιβάλλοντος και έχουν δημιουργήσει ανοησίες – τώρα αναπαράγονται σε πολλούς ιστότοπους (και αναφέρονται και εδώ). Άλλα παραδείγματα πολλά – Αγώνες πείνας και βιντεοπαιχνίδια Baldur’s Gate 3και οι δύο ονομάζονται «ψώρα».

Μακράν η πιο αστεία μέχρι στιγμής είναι αυτή του πρώην δικηγόρου του Ντόναλντ Τραμπ, Μάικλ Κοέν, ο οποίος χρειάστηκε να απολογηθεί σε αμερικανικό δικαστήριο αφού ανέφερε ανύπαρκτες υποθέσεις που του είχαν βρεθεί (και καθόλου). Βοηθός AI. Αυτός είναι γενικά ένας κακός τρόπος για να το κάνετε αυτό στο δικαστήριο.


Οι τρέχουσες γενιές τεχνητής νοημοσύνης είναι ήδη «εκπαιδευμένες» και έχουν εκπαιδευτεί σε περιεχόμενο διαδικτύου πριν από την τεχνητή νοημοσύνη. Ωστόσο, για να διατηρηθούν ενημερωμένες οι μελλοντικές γενιές προϊόντων τεχνητής νοημοσύνης – και η ενημέρωση της λειτουργικότητάς τους – θα απαιτήσει τη διαγραφή του Διαδικτύου όπως είναι σήμερα.

Το πρόβλημα είναι ότι ένα αυξανόμενο τμήμα του διαδικτύου είτε μολύνεται με χαμηλότερης ποιότητας περιεχόμενο τεχνητής νοημοσύνης και στη συνέχεια μπερδεύεται περαιτέρω από άρθρα όπως αυτό (από τα οποία προβλέπω ότι θα υπάρξουν πολλά περισσότερα τα επόμενα χρόνια) που προσπαθούν να εξηγήσουν το διαταραχή, αλλά ενισχύοντας τους συσχετισμούς μεταξύ των παραπλανητικών λέξεων όπως κάνουμε εμείς.

Αυτό κινδυνεύει να δημιουργήσει έναν πολύ επικίνδυνο κύκλο, στον οποίο η συνεχώς υποβαθμισμένη είσοδος σημαίνει ότι η έξοδος AI υποβαθμίζεται ακόμη και όταν η τεχνολογία γίνεται πιο έξυπνη, οδηγώντας σε μια σπείρα όλο και χειρότερου περιεχομένου στο Διαδίκτυο (μια διαδικασία που ονομάζεται “enshittification”). από τον Cory Doctorow ) και τελικά η χαρά και η δημιουργικότητα του Διαδικτύου μειώνονται σε αλγοριθμική φαιά ουσία – οι πληροφορίες μειώνονται σε ένα σάπιο χαμένων λέξεων.

Σήμερα είναι φοντάν και Χάρρυ Πόττερ. Αυτό θα επηρεάσει το περιεχόμενο ειδήσεων στο πολύ εγγύς μέλλον, αν δεν το έχει ήδη κάνει.

Κανείς δεν γνωρίζει ακριβώς πόσο σημαντικό κίνδυνο αντιπροσωπεύει το αποτέλεσμα της φαιάς ουσίας και δεν υπάρχουν σαφή σχέδια για την αποτροπή του. Οι εταιρείες μέσων ενημέρωσης πρέπει να φροντίσουν να κοιτάξουμε πέρα ​​από τα σύνορά μας – γιατί αν δεν το κάνουμε, κινδυνεύουμε να χάσουμε την καταστροφή που θα μας πάρει όλους.

Leave a Reply

Your email address will not be published. Required fields are marked *