Το ChatGPT κάνει τους επιστήμονες υπερπαραγωγικούς; Τα σκαμπανεβάσματα της χρήσης AI

By | February 29, 2024

Η εικόνα δείχνει το λογισμικό τεχνητής νοημοσύνης ChatGPT που χρησιμοποιείται σε φορητό υπολογιστή που περιβάλλεται από βιβλία.

Σε μια έρευνα του 2023 Nature με επιστήμονες, το 30% είπε ότι είχε χρησιμοποιήσει εργαλεία παραγωγής τεχνητής νοημοσύνης για να τους βοηθήσει να γράψουν χειρόγραφα.Πίστωση: Nicolas Maeterlinck/Belga MAG/AFP μέσω Getty

Το ChatGPT συνεχίζει να κλέβει την παράσταση, περισσότερο από ένα χρόνο μετά το δημόσιο ντεμπούτο του.

Το chatbot τεχνητής νοημοσύνης (AI) κυκλοφόρησε ως δωρεάν εργαλείο τον Νοέμβριο του 2022 από την εταιρεία τεχνολογίας OpenAI στο Σαν Φρανσίσκο της Καλιφόρνια. Δύο μήνες αργότερα, το ChatGPT είχε ήδη καταχωρηθεί ως συγγραφέας σε μια χούφτα ερευνητικές εργασίες.

Οι ακαδημαϊκοί εκδότες έσπευσαν να ανακοινώσουν πολιτικές σχετικά με τη χρήση του ChatGPT και άλλων βασικών γλωσσικών μοντέλων (LLM) στη διαδικασία γραφής. Από τον περασμένο Οκτώβριο, 87 από τα 100 κορυφαία επιστημονικά περιοδικά είχαν παράσχει καθοδήγηση σε συγγραφείς σχετικά με τη γενετική τεχνητή νοημοσύνη, η οποία μπορεί να δημιουργήσει κείμενο, εικόνες και άλλο περιεχόμενο, ανέφεραν οι ερευνητές στις 31 Ιανουαρίου στο Το BMJ1.

Αλλά αυτός δεν είναι ο μόνος τρόπος με τον οποίο το ChatGPT και άλλα LLM έχουν αρχίσει να αλλάζουν την επιστημονική γραφή. Στο ανταγωνιστικό περιβάλλον του ακαδημαϊκού χώρου, κάθε εργαλείο που επιτρέπει στους ερευνητές να «παράγουν περισσότερες δημοσιεύσεις θα είναι μια πολύ ελκυστική πρόταση», λέει ο Σάββας Παπαγιαννίδης, ερευνητής ψηφιακής καινοτομίας στο Πανεπιστήμιο του Newcastle στο Newcastle upon Tyne, UK.

Το Generative AI συνεχίζει να βελτιώνεται. Οι εκδότες, οι φορείς χρηματοδότησης και οι επιστήμονες πρέπει επομένως να εξετάσουν τι συνιστά ηθική χρήση των LLM και τι αποκαλύπτει η υπερβολική εξάρτηση από αυτά τα εργαλεία για ένα ερευνητικό τοπίο που ενθαρρύνει την υπερπαραγωγικότητα.

Οι επιστήμονες χρησιμοποιούν τακτικά LLM για να γράφουν άρθρα;

Πριν από τη δημόσια κυκλοφορία του, το ChatGPT δεν ήταν τόσο φιλικό προς τον χρήστη όσο είναι σήμερα, λέει η Debora Weber-Wulff, επιστήμονας υπολογιστών στο Πανεπιστήμιο Εφαρμοσμένων Επιστημών HTW στο Βερολίνο. «Οι διεπαφές των παλαιών μοντέλων GPT ήταν κάτι που μόνο ένας επιστήμονας υπολογιστών θα μπορούσε να αγαπήσει».

Στο παρελθόν, οι ερευνητές χρειάζονταν συνήθως εξειδικευμένη τεχνογνωσία για τη χρήση προηγμένων LLM. Σήμερα, «το GPT το έχει εκδημοκρατίσει ως ένα βαθμό», λέει ο Παπαγιαννίδης.

Αυτός ο εκδημοκρατισμός έχει καταλύσει τη χρήση των LLM στη συγγραφή ερευνών. Το 2023 Φύση Σύμφωνα με έρευνα με περισσότερους από 1.600 επιστήμονες, σχεδόν το 30% είπε ότι είχε χρησιμοποιήσει εργαλεία τεχνητής νοημοσύνης για να τους βοηθήσει να γράψουν χειρόγραφα και περίπου το 15% είπε ότι τα χρησιμοποίησε για να τους βοηθήσει να γράψουν επιδότηση αιτήσεων.

Και τα LLM έχουν πολλές άλλες χρήσεις. Μπορούν να βοηθήσουν τους επιστήμονες να γράφουν κώδικα, να συλλέγουν ερευνητικές ιδέες και να διεξάγουν ανασκοπήσεις βιβλιογραφίας. Τα LLM από άλλους προγραμματιστές βελτιώνονται επίσης, όπως οι Gemini της Google και ο Claude 2 από την Anthropic, μια εταιρεία τεχνητής νοημοσύνης στο Σαν Φρανσίσκο. Οι ερευνητές με τις κατάλληλες δεξιότητες μπορούν ακόμη και να αναπτύξουν τα δικά τους εξατομικευμένα LLM, τα οποία ταιριάζουν απόλυτα στο στυλ γραφής και το επιστημονικό τους πεδίο, λέει ο Thomas Lancaster, επιστήμονας υπολογιστών στο Imperial College του Λονδίνου.

Ποια είναι τα οφέλη για τους ερευνητές;

Περίπου το 55% των ερωτηθέντων Φύση Η έρευνα διαπίστωσε ότι ένα σημαντικό πλεονέκτημα της γενετικής τεχνητής νοημοσύνης είναι η ικανότητά της να επεξεργάζεται και να μεταφράζει γραπτά για ερευνητές των οποίων η μητρική γλώσσα δεν είναι η αγγλική. Ομοίως, σε έρευνα του Ευρωπαϊκού Συμβουλίου Έρευνας (ERC), που χρηματοδοτεί την έρευνα στην Ευρώπη, το 75% των περισσότερων από 1.000 δικαιούχων επιχορηγήσεων του ERC πιστεύουν ότι η γενετική τεχνητή νοημοσύνη θα μειώσει τα γλωσσικά εμπόδια στην έρευνα έως το 2030, σύμφωνα με έκθεση που δημοσιεύθηκε τον Δεκέμβριο.2.

Από τους ερωτηθέντες στην έρευνα του ERC, το 85% πιστεύει ότι η γενετική τεχνητή νοημοσύνη θα μπορούσε να υποστηρίξει επαναλαμβανόμενες εργασίες ή εργασίες έντασης εργασίας, όπως ανασκοπήσεις βιβλιογραφίας. Και το 38% πιστεύει ότι η γενετική τεχνητή νοημοσύνη θα προωθήσει την επιστημονική παραγωγικότητα, για παράδειγμα βοηθώντας τους ερευνητές να γράφουν εργασίες πιο γρήγορα.

Ποια είναι τα μειονεκτήματα;

Παρόλο που το αποτέλεσμα του ChatGPT μπορεί να μοιάζει πειστικά σαν άνθρωπο, η Weber-Wulff προειδοποιεί ότι τα LLMs μπορούν ακόμα να κάνουν γλωσσικά λάθη που μπορεί να παρατηρήσουν οι αναγνώστες. Αυτός είναι ένας από τους λόγους για τους οποίους υποστηρίζει ότι οι ερευνητές αναγνωρίζουν τη χρήση του LLM στα άρθρα τους. Τα chatbots είναι επίσης γνωστό ότι παράγουν κατασκευασμένες πληροφορίες, που ονομάζονται «παραισθήσεις».

Και η αύξηση της παραγωγικότητας που θα μπορούσαν να φέρουν τα LLM έχει ένα μειονέκτημα. Η επιτάχυνση της διαδικασίας σύνταξης άρθρων θα μπορούσε να αυξήσει την απόδοση του περιοδικού, δυνητικά εξαντλώντας τους συντάκτες και τους ομοτίμους κριτές ακόμη περισσότερο από ό,τι είναι ήδη. «Με αυτόν τον συνεχώς αυξανόμενο αριθμό άρθρων – επειδή οι αριθμοί αυξάνονται κάθε χρόνο – απλά δεν υπάρχουν αρκετά άτομα διαθέσιμα για να συνεχίσουν να κάνουν δωρεάν αξιολόγηση από ομοτίμους για συντάκτες», λέει ο Lancaster. Επισημαίνει ότι παράλληλα με τους ερευνητές που χρησιμοποιούν ανοιχτά LLM και το αναγνωρίζουν, κάποιοι χρησιμοποιούν κρυφά αυτά τα εργαλεία για να παράγουν έρευνα χαμηλής αξίας.

Είναι ήδη δύσκολο να περάσει κανείς από τη θάλασσα των δημοσιευμένων άρθρων για να βρει ουσιαστική έρευνα, λέει ο Παπαγιαννίδης. Εάν το ChatGPT και άλλα LLM αυξήσουν την παραγωγή, θα αποδειχθεί ακόμη πιο δύσκολο.

«Πρέπει να επιστρέψουμε και να δούμε ποιο είναι το σύστημα ανταμοιβής στον ακαδημαϊκό χώρο», λέει ο Weber-Wulff. Το τρέχον μοντέλο «δημοσιεύστε ή χάνετε» επιβραβεύει τους ερευνητές που δημοσιεύουν με συνέπεια άρθρα. Αλλά πολλοί άνθρωποι υποστηρίζουν ότι αυτό πρέπει να εξελιχθεί σε ένα σύστημα που δίνει προτεραιότητα στην ποιότητα έναντι της ποσότητας. Για παράδειγμα, εξηγεί η Weber-Wulff, το Γερμανικό Ίδρυμα Ερευνών επιτρέπει στους αιτούντες επιχορήγηση να συμπεριλάβουν μόνο δέκα δημοσιεύσεις σε μια πρόταση. «Θέλετε να εστιάσετε την εργασία σας στην απόκτηση πραγματικά καλής ποιότητας, υψηλού επιπέδου χαρτιών», λέει.

Ποια είναι η θέση των επιστημονικών εκδοτών σχετικά με τη χρήση του LLM;

Σύμφωνα με τη μελέτη του Ο BMJ24 από τους 100 μεγαλύτερους εκδότες – συλλογικά υπεύθυνοι για περισσότερα από 28.000 περιοδικά – είχαν δώσει, τον περασμένο Οκτώβριο, συμβουλές σχετικά με τη γενετική τεχνητή νοημοσύνη.1. Τα περιοδικά με πολιτικές γενετικής τεχνητής νοημοσύνης τείνουν να επιτρέπουν κάποια χρήση του ChatGPT και άλλων LLM, υπό την προϋπόθεση ότι αναγνωρίζονται σωστά.

Το Springer Nature, για παράδειγμα, δηλώνει ότι η χρήση του LLM πρέπει να τεκμηριώνεται στις μεθόδους ή σε άλλη ενότητα του χειρογράφου, μια οδηγία που εισήχθη τον Ιανουάριο του 2023. Ωστόσο, τα εργαλεία τεχνητής δημιουργίας τεχνητής νοημοσύνης δεν πληρούν κριτήρια συγγραφής, επειδή αυτό «φέρει ευθύνη». για τη δουλειά, και τα εργαλεία AI δεν μπορούν να αναλάβουν τέτοια ευθύνη». (ΦύσηΗ ειδησεογραφική ομάδα είναι συντακτική ανεξάρτητη από τον εκδότη της, Springer Nature.)

Η επιβολή αυτών των κανόνων είναι πιο εύκολο να ειπωθεί παρά να γίνει, καθώς το κείμενο που δημιουργείται από τεχνητή νοημοσύνη δεν έχει αποκαλυφθεί μπορεί να είναι δύσκολο να εντοπιστεί από τους συντάκτες και τους ομοτίμους κριτές. Μερικοί ντετέκτιβ το εντόπισαν μέσω λεπτών φράσεων και μεταφραστικών λαθών. Σε αντίθεση με τις περιπτώσεις λογοκλοπής, στις οποίες υπάρχουν σαφείς πηγές, «δεν μπορείτε να αποδείξετε ότι κάτι γράφτηκε από AI», λέει ο Weber-Wulff. Παρά το γεγονός ότι οι ερευνητές αγωνίζονται να δημιουργήσουν εργαλεία ανίχνευσης LLM, “δεν έχουμε δει κανένα που να πιστεύουμε ότι παράγει αρκετά συναρπαστικό αποτέλεσμα” για την εξέταση των υποβολών περιοδικών, λέει ο Holden Thorp, αρχισυντάκτης του Επιστήμη οικογένεια περιοδικών.

Τι γίνεται με άλλες χρήσεις;

Αν και τον Νοέμβριο η American Association for the Advancement of Science, που εκδίδει Επιστήμη — επιτρέπει κάποια αποκαλυπτόμενη χρήση της γενετικής τεχνητής νοημοσύνης στην προετοιμασία χειρογράφων, αλλά εξακολουθεί να απαγορεύει τη χρήση των LLM στην αξιολόγηση από ομοτίμους, λέει ο Thorp. Αυτό συμβαίνει γιατί αυτός και άλλοι Επιστήμη θέλουν οι κριτικοί να αφιερώσουν την πλήρη προσοχή τους στο χειρόγραφο που εξετάζεται, προσθέτει. Ομοίως, η πολιτική του Springer Nature απαγορεύει στους ομότιμους κριτές να ανεβάζουν χειρόγραφα σε εργαλεία παραγωγής τεχνητής νοημοσύνης.

Ορισμένοι φορείς χρηματοδότησης, συμπεριλαμβανομένου του Εθνικού Ινστιτούτου Υγείας των ΗΠΑ και του Αυστραλιανού Ερευνητικού Συμβουλίου, απαγορεύουν στους αναθεωρητές να χρησιμοποιούν γενετική τεχνητή νοημοσύνη για να βοηθήσουν στην εξέταση αιτήσεων επιχορήγησης λόγω ανησυχιών για το απόρρητο (οι προτάσεις επιχορήγησης αντιμετωπίζονται ως εμπιστευτικά έγγραφα και τα δεδομένα εισάγονται στο δημόσιο τομέα ). Οι LLM μπορούν να συμβουλευτούν άλλα άτομα). Ωστόσο, το Επιστημονικό Συμβούλιο του ERC, το οποίο διευθύνει το ERC, εξέδωσε δήλωση τον Δεκέμβριο, αναγνωρίζοντας ότι οι ερευνητές χρησιμοποιούν τεχνολογίες τεχνητής νοημοσύνης, μαζί με άλλες μορφές εξωτερικής βοήθειας, για να προετοιμάσουν προτάσεις επιχορήγησης. Πρόσθεσε ότι σε αυτές τις περιπτώσεις οι συγγραφείς πρέπει πάντα να αναλαμβάνουν την πλήρη ευθύνη για το έργο τους.

«Πολλοί οργανισμοί εκδίδουν τώρα πολύ αμυντικές δηλώσεις» απαιτώντας από τους συγγραφείς να αναγνωρίσουν οποιαδήποτε χρήση γενετικής τεχνητής νοημοσύνης, λέει ο Tom Henzinger, μέλος του επιστημονικού συμβουλίου του ERC και επιστήμονας υπολογιστών στο Αυστριακό Ινστιτούτο Επιστήμης και Τεχνολογίας στο Klosterneuburg.

Για αυτόν, το ChatGPT δεν φαίνεται να διαφέρει από έναν συνάδελφο που στέλνει ένα μήνυμα για ανατροφοδότηση. «Χρησιμοποιήστε όλους τους πόρους που έχετε στη διάθεσή σας», λέει ο Henzinger.

Ανεξάρτητα από τους διαρκώς μεταβαλλόμενους κανόνες γύρω από το γενετικό AI, οι ερευνητές θα συνεχίσουν να το χρησιμοποιούν, λέει ο Lancaster. «Δεν υπάρχει τρόπος να ελεγχθεί η χρήση τεχνολογίας όπως το ChatGPT».

Leave a Reply

Your email address will not be published. Required fields are marked *