Έχετε νομικά προβλήματα; Καλύτερα να καλέσετε το SauLM-7B • The Register

By | March 9, 2024

Ερευνητές μηχανικής μάθησης και νομικοί εμπειρογνώμονες κυκλοφόρησαν το SauLM-7B, το οποίο λένε ότι είναι το πρώτο σημαντικό μοντέλο γλώσσας ανοιχτού κώδικα που δημιουργεί κείμενο που επικεντρώνεται ειδικά σε νομικές εργασίες και εφαρμογές.

Υπό το πρίσμα των πρόσφατων σφαλμάτων υψηλού προφίλ στα οποία η Generative AI ανέφερε ανύπαρκτες υποθέσεις σε δικαστικές καταθέσεις – Μάτα εναντίον Αβιάνκα Και Παρκ εναντίον Κιμ – αυτό μπορεί να φαίνεται παράλογο. Η τάση των μοντέλων τεχνητής νοημοσύνης να έχουν παραισθήσεις και η αβέβαιη προέλευση των δεδομένων τους φαίνεται να αποτελούν εμπόδια σε έναν κλάδο όπου το διακύβευμα είναι υψηλό.

Αλλά οι δημιουργοί του SauLM-7B, που συνδέονται με την startup Equall.ai, το Πανεπιστήμιο Paris-Saclay και το Πανεπιστήμιο της Σορβόννης στη Γαλλία, καθώς και το Universidade de Lisboa και τη Νομική Σχολή NOVA στην Πορτογαλία, υποστηρίζουν ότι υπάρχει τόπος για βοήθεια τεχνητής νοημοσύνης στο νόμο.

“Τα LLMs και τα συστήματα τεχνητής νοημοσύνης ευρύτερα θα έχουν μετασχηματιστικό αντίκτυπο στην πρακτική του δικαίου που περιλαμβάνει αλλά υπερβαίνει την οριακή παραγωγικότητα”, δήλωσε εκπρόσωπος του Equall.ai σε ένα email στο Το μητρώο. «Στόχος μας είναι να δημιουργήσουμε από άκρο σε άκρο νομικά συστήματα AI, καθοδηγούμενα και ελεγχόμενα από δικηγόρους.

Η πεποίθησή μας είναι ότι τα συστήματα που είναι εξειδικευμένα στον νομικό τομέα θα είναι πιο αποτελεσματικά από τα γενικά συστήματα.

«Η πεποίθησή μας — βάσει δεδομένων και εμπειρίας — είναι ότι τα εξειδικευμένα νομικά συστήματα θα έχουν καλύτερη απόδοση από τα γενικά συστήματα. Αυτό περιλαμβάνει μεγαλύτερη ακρίβεια και πιο χρήσιμα εργαλεία για να βοηθήσουν τους δικηγόρους να επικεντρωθούν σε αυτό που αγαπούν περισσότερο και κάνουν καλύτερα, το οποίο είναι η άσκηση νομικής κρίσης και η παροχή συμβουλών στους πελάτες τους.

Άλλοι οργανισμοί είναι εξίσου αισιόδοξοι για τη χρησιμότητα της βοήθειας AI. Η Goldman Sachs εκτίμησε πέρυσι [PDF] ότι «το ένα τέταρτο των τρεχουσών εργασιών θα μπορούσε να αυτοματοποιηθεί από την τεχνητή νοημοσύνη στις Ηνωμένες Πολιτείες, με ιδιαίτερα υψηλές εκθέσεις σε διοικητικά (46%) και νομικά (44%) επαγγέλματα…» Και νεοφυείς επιχειρήσεις όπως το Bench IQ, το Harvey.ai και το Safe Sign Technologies δείτε μια ευκαιρία αγοράς σε αυτόν τον τύπο πρόβλεψης.

Το Equall.ai, που ιδρύθηκε από τον Jorge Mattamouros, πρώην συνεργάτη της White & Case LLP, λέει ότι σχεδόν όλες οι νομικές εργασίες – έρευνα, αναθεώρηση και ανάλυση εγγράφων, περιλήψεις και εντοπισμός βασικών αποσπασμάτων σε έγγραφα – μπορούν να επωφεληθούν από την τεχνητή νοημοσύνη.

«Πιστεύουμε ότι τα LLM ανοίγουν πολύ περισσότερους δρόμους, μερικούς βλέπουμε σήμερα, πολλούς που δεν έχουν ανακαλυφθεί ακόμη», συνέχισε ο εκπρόσωπος του Equall.ai. «Για παράδειγμα, πιστεύουμε ότι τα LLM θα αλλάξουν ριζικά τον τρόπο με τον οποίο προσεγγίζουμε τους αγωγούς επεξεργασίας και τη δημιουργία δεδομένων, κάτι που θα είναι απαραίτητο για νομικές εφαρμογές όπου η απόκτηση δεδομένων υψηλής ποιότητας είναι δαπανηρή και δύσκολο να επιτευχθεί.

Η άποψη του Equall.ai είναι ότι οι ανακρίβειες στα μοντέλα τεχνητής νοημοσύνης μπορούν να μετριαστούν.

«Τα LLM παραμένουν πιθανολογικά μοντέλα», μας είπε η επιχείρηση. “Οι ψευδαισθήσεις είναι συνήθως ένα σύμπτωμα των LLM που λειτουργούν εκτός διανομής. Με άλλα λόγια, όταν τους ζητείται να δημιουργήσουν κείμενο για θέματα και δεδομένα παρόμοια με τα δεδομένα στα οποία εκπαιδεύτηκε το LLM, οι LLM τείνουν να έχουν πολύ λιγότερες παραισθήσεις από ό,τι όταν τους ζητείται να γράψουν για πράγματα που Έχω εκπαιδευτεί σε. Έχω μάθει λίγα.

“Για παράδειγμα, σε όλη την αξιολόγησή μας για τον Saul με πραγματικούς δικηγόρους, μπορέσαμε να επιβεβαιώσουμε ότι ήταν λιγότερο πιθανό να έχει παραισθήσεις όταν συζητούσε συγκεκριμένες νομικές έννοιες. Εν ολίγοις, αναμένουμε ότι οι LLM που είναι ειδικά εκπαιδευμένοι σε νομικά δεδομένα έχουν πολύ λιγότερες ψευδαισθήσεις σε νομικά θέματα από τους γενικούς ομολόγους.

Τούτου λεχθέντος, ο νεοεισερχόμενος προειδοποιεί ότι τα μοντέλα τεχνητής νοημοσύνης δεν πρέπει να βασίζονται σαν να ήταν μια νόμιμη βάση δεδομένων και ότι είναι σκόπιμο να ελέγχετε τα αποτελέσματα LLM. Θα λέγαμε: Η επαλήθευση είναι υποχρεωτική.

Οι δημιουργοί του SauLM-7B – Pierre Colombo, Telmo Pessoa Pires, Malik Boudiaf, Dominic Culver, Rui Melo, Caio Corro, Andre FT Martins, Fabrizio Esposito, Vera Lúcia Raposo, Sofia Morgado και Michael Desa – περιγράφουν τη δουλειά τους σε ένα άρθρο. με τίτλο «SaulLM-7B: Ένα πρωτοποριακό μοντέλο ευρείας γλώσσας για το νόμο».

Διαθέσιμο στον ιστότοπο της κοινότητας μοντέλων AI HuggingFace, το SauLM-7B βασίζεται στο μοντέλο ανοιχτού κώδικα Mistral 7B, και τα δύο έχουν 7 δισεκατομμύρια παραμέτρους. Αυτό είναι σημαντικά μικρότερο από μοντέλα όπως το LlaMA 2, το οποίο μπορεί να βασίζεται σε έως και 70 δισεκατομμύρια παραμέτρους. Αλλά οι δημιουργοί του SauLM-7B σημειώνουν ότι αυτό είναι μόνο ένα πρώτο βήμα και η εργασία βρίσκεται σε εξέλιξη με διαφορετικά μεγέθη μοντέλων.

Όπως θα περίμενε κανείς από ένα LLM, το SauLM-7B λειτουργεί με το να του γίνονται ερωτήσεις ή να του δίνονται προτροπές σε φυσική γλώσσα και προσπαθεί να απαντήσει ή να απαντήσει σε αυτές. στην προκειμένη περίπτωση πρόκειται για νομικά και νομικά ζητήματα.

Ο Jonathan Schwarz, συνιδρυτής και επικεφαλής επιστήμονας στη νομική startup τεχνητής νοημοσύνης στο Ηνωμένο Βασίλειο Safe Sign Technologies, δήλωσε: Το μητρώο ότι οι κατασκευαστές SauLM-7B έχουν υιοθετήσει μια λογική προσέγγιση για την εξειδίκευση γενικών LLM.

«Είναι μια ενδιαφέρουσα προσφορά ως εναλλακτική λύση ανοιχτού κώδικα σε πιο ιδιόκτητες τεχνικές», είπε. «Ωστόσο, υπάρχει δουλειά που πρέπει να γίνει».

Αυτή είναι μια ενδιαφέρουσα προσφορά ως εναλλακτική λύση ανοιχτού κώδικα σε πιο ιδιόκτητες τεχνικές

Ο Schwarz τόνισε την ανάγκη για μοντέλα κόκκινων ομάδων, κάτι που είπε η εταιρεία του κάνει εσωτερικά.

Μας είπαν ότι η Safe Sign Technologies έχει πρωτοτυπήσει ένα νόμιμο LLM και στοχεύει να έχει μια δεύτερη επανάληψη έτοιμη να κυκλοφορήσει μέσω συνεργατών αργότερα μέσα στο έτος ή μετά.

Ο Schwarz είπε ότι η εταιρεία δεν ήταν ακόμη έτοιμη να σχολιάσει πόσο ανοιχτού κώδικα ή ιδιόκτητη θα ήταν η προσφορά της. Ωστόσο, είπε ότι παρόλο που το SaulLM-7B-Instruct – μια έκδοση που ακονίζεται με γενικές και νομικές οδηγίες – είχε καταφέρει να πετύχει μέσο όρο 0,61 στο σημείο αναφοράς LegalBench-Instruct, «πλησιάζουμε στο 0,77». Αυτό το ποσοστό ακρίβειας είναι παρόμοιο με αυτό του GPT-4, αν και σας προτρέπουμε να πάρετε λίγο αλάτι με τα σημεία αναφοράς μηχανικής εκμάθησης.

«Η φιλοδοξία μας εδώ ήταν να δημιουργήσουμε μια λύση τεχνητής νοημοσύνης που θα παρέχει αμέσως σε κάθε άτομο πολύ καλής ποιότητας νομικές συμβουλές», δήλωσε ο Alexander (Sami) Kardos-Nyheim, συνιδρυτής και Διευθύνων Σύμβουλος της Safe Sign Technologies σε συνέντευξή του στο Το μητρώο. “Όχι αναξιόπιστες νομικές συμβουλές από το ChatGPT ή κάτι παρόμοιο. Αλλά σοβαρές νομικές συμβουλές που μπορείτε πραγματικά να χρησιμοποιήσετε και να βασιστείτε μέσω AI.”

Κάπως αποφεύγετε αυτό το πρόβλημα της εκμάθησης όλων αυτών των τοξικών συμπεριφορών που προσπαθείτε να αναιρέσετε αργότερα.

«Βασικά, ο τρόπος με τον οποίο συνήθως εκπαιδεύονται αυτές οι τεχνικές ή μέθοδοι είναι ότι έχετε ένα τεράστιο σύνολο δεδομένων που έχει εκπαιδευτεί στον Ιστό και λαμβάνετε δείγμα κάθε άμεσου προπονητικού βήματος ή απλώς επιλέγετε ένα τυχαίο σύνολο», εξήγησε ο Schwarz. «Τότε απλά προπονείστε σε αυτό το υποσύνολο και το κάνετε δισεκατομμύρια φορές.

“Αντί να επιλέγουμε απλώς ένα τυχαίο υποσύνολο, έχουμε νέες μεθόδους που, σε κάθε στάδιο της εκπαίδευσης, προσπαθούν να προσδιορίσουν ποιο είναι το βέλτιστο υποσύνολο δεδομένων για εκπαίδευση σε αυτό το στάδιο, έτσι ώστε η βελτίωση των μοντέλων να είναι η μέγιστη.” βήμα. Με αυτόν τον τρόπο αποφεύγετε κάπως αυτό το πρόβλημα της εκμάθησης όλων αυτών των τοξικών συμπεριφορών που προσπαθείτε να αναιρέσετε αργότερα. “

Ο Schwarz πρότεινε ότι η προσέγγιση του Safe Sign είναι στην πραγματικότητα πιο ασφαλής. «Σε μια περίπτωση όπου υπάρχει μια συγκεκριμένη νομική ερώτηση που το μοντέλο απλώς δεν ξέρει πραγματικά πώς να απαντήσει, αντί να δώσει με σιγουριά μια λανθασμένη απάντηση, μπορούμε απλώς να πούμε ότι συγκρατούμε αυτήν την ερώτηση».

Αργότερα εξέφρασε σκεπτικισμό σχετικά με την προσέγγιση του ωκεανού που υιοθέτησε η OpenAI και η Google, η οποία περιλαμβάνει την εστίαση σε γενικές βλάβες, όπως η φυλετική προκατάληψη και το φύλο, και την πληρωμή εργολάβων χαμηλού κόστους για να ταξινομήσουν τις απαντήσεις από τα μοντέλα τους, ώστε να μπορέσουν να επανεκπαιδεύσουν το νευρικό δίκτυα για λιγότερες επιβλαβείς αποκρίσεις.

«Αν θέλεις να μπορείς να κάνεις ό,τι μπορεί να κάνει ένας άνθρωπος, πρέπει να συγκρίνεις ό,τι μπορεί να κάνει ένας άνθρωπος», είπε ο Schwarz. «Πιστεύω ότι είναι μια χαμένη στρατηγική αν προσπαθήσεις να το κάνεις αυτό σε κάθε δυνατό θέμα».

«Όχι μόνο στη νομική τεχνητή νοημοσύνη, αλλά στην τεχνητή νοημοσύνη γενικότερα, δεν βλέπουμε την έμφαση στην ασφάλεια και την ευρωστία που σας επιτρέπει να δημιουργείτε σοβαρά και αξιόπιστα συστήματα στο ιατρικό ή νομικό πλαίσιο», πρόσθεσε ο Kardos-Nyheim. ®

Category: A.I

Leave a Reply

Your email address will not be published. Required fields are marked *