Όλα όσα πρέπει να γνωρίζετε για να προετοιμαστείτε για τη νομοθεσία της ΕΕ για την τεχνητή νοημοσύνη

By | March 9, 2024

Οι Ευρωπαίοι νομοθέτες κατέληξαν τελικά σε συμφωνία σχετικά με τον νόμο περί τεχνητής νοημοσύνης στα τέλη του 2023 – ένα νομοσχέδιο επί σειρά ετών για τη ρύθμιση της τεχνητής νοημοσύνης και την πρόληψη της κατάχρησης της τεχνολογίας.

Το κείμενο βρίσκεται επί του παρόντος σε μια σειρά ψηφοφοριών πριν γίνει ευρωπαϊκός νόμος και φαίνεται πιθανό ότι θα τεθεί σε ισχύ έως το καλοκαίρι του 2024.

Αυτό σημαίνει ότι οποιαδήποτε εταιρεία, μεγάλη ή μικρή, που παράγει ή αναπτύσσει μοντέλα τεχνητής νοημοσύνης στην ΕΕ θα πρέπει να αρχίσει να σκέφτεται ένα νέο σύνολο κανόνων και υποχρεώσεων που πρέπει να ακολουθήσει. Καμία εταιρεία δεν πρέπει να συμμορφωθεί αμέσως μετά την ψήφιση του νόμου. Στην πραγματικότητα, οι περισσότερες επιχειρήσεις μπορούν να αναμένουν μια μεταβατική περίοδο δύο ετών. Αλλά αξίζει πάντα να προγραμματίζετε εκ των προτέρων, ειδικά για νεοφυείς επιχειρήσεις με μικρές ή καθόλου νομικές ομάδες.

«Μην θάβετε το κεφάλι σας στην άμμο», λέει η Marianne Tordeux-Bitker, διευθύντρια δημοσίων σχέσεων στο λόμπι startup και επιχειρηματικών κεφαλαίων France Digitale. «Εφαρμόστε τις διαδικασίες που θα σας επιτρέψουν να προβλέψετε. »

«Όσοι λανσάρουν και αναπτύσσουν συστήματα που είναι συμβατά από το σχεδιασμό θα αναπτύξουν πραγματικό ανταγωνιστικό πλεονέκτημα», προσθέτει ο Matthieu Luccheshi, ειδικός στην ψηφιακή ρύθμιση στην εταιρεία Gide Loyrette Nouel.

Δεδομένου ότι η ανάγνωση του νόμου για την τεχνητή νοημοσύνη είναι πιθανό να εγείρει περισσότερα ερωτήματα από όσα απαντά, το Sifted έχει στρογγυλοποιήσει τα βασικά στοιχεία που πρέπει να γνωρίζουν οι ιδρυτές καθώς προετοιμάζονται για τους νέους κανόνες.

Ποιος ενδιαφέρεται;

Ορισμένα στοιχεία του νόμου ισχύουν για κάθε εταιρεία που αναπτύσσει, προμηθεύει ή αναπτύσσει συστήματα τεχνητής νοημοσύνης για εμπορικούς σκοπούς στην ΕΕ.

Αυτό περιλαμβάνει εταιρείες που κατασκευάζουν και πωλούν συστήματα τεχνητής νοημοσύνης σε άλλες εταιρείες, αλλά και εκείνες που χρησιμοποιούν τεχνητή νοημοσύνη για τις διαδικασίες τους, είτε κατασκευάζουν την τεχνολογία εσωτερικά είτε πληρώνουν για εργαλεία που είναι διαθέσιμα στο εμπόριο.

Ωστόσο, το μεγαλύτερο μέρος της ρύθμισης πέφτει στις εταιρείες που δημιουργούν συστήματα AI. Όσοι αναπτύσσουν μόνο ένα εξωτερικό εργαλείο πρέπει κυρίως να διασφαλίζουν ότι ο πάροχος τεχνολογίας συμμορφώνεται με τη νομοθεσία.

Ο κανονισμός επηρεάζει επίσης εταιρείες με έδρα εκτός της ΕΕ που εισάγουν τα συστήματα και τα μοντέλα τεχνητής νοημοσύνης τους εντός του μπλοκ.

Τι είναι μια προσέγγιση που βασίζεται στον κίνδυνο;

Οι νομοθέτες της ΕΕ έχουν υιοθετήσει μια «προσέγγιση βασισμένη στον κίνδυνο» για να προσδιορίσουν το επίπεδο κινδύνου που ενέχει ένα σύστημα τεχνητής νοημοσύνης με βάση τη χρήση του. Αυτό κυμαίνεται από εργαλεία πιστοληπτικής βαθμολογίας που βασίζονται σε AI έως φίλτρα ανεπιθύμητης αλληλογραφίας.

Μια κατηγορία περιπτώσεων χρήσης που χαρακτηρίζονται ως «απαράδεκτος κίνδυνος» απαγορεύεται πλήρως. Πρόκειται για συστήματα τεχνητής νοημοσύνης που μπορούν να απειλήσουν τα δικαιώματα των πολιτών της ΕΕ, όπως η κοινωνική αξιολόγηση από τις κυβερνήσεις. Ένας πρώτος κατάλογος συστημάτων που εμπίπτουν σε αυτήν την κατηγορία δημοσιεύεται στον νόμο AI.

Άλλες περιπτώσεις χρήσης ταξινομούνται ως υψηλού κινδύνου, χαμηλού κινδύνου ή ελάχιστου κινδύνου και η καθεμία έχει διαφορετικό σύνολο κανόνων και υποχρεώσεων.

Έτσι, το πρώτο βήμα για τους ιδρυτές είναι να χαρτογραφήσουν όλα τα συστήματα AI που κατασκευάζει, πουλά ή αναπτύσσει η εταιρεία τους – και να καθορίσουν σε ποια κατηγορία κινδύνου εμπίπτουν.

Το σύστημά σας AI εμπίπτει στην κατηγορία υψηλού κινδύνου;

Ένα σύστημα AI θεωρείται υψηλού κινδύνου εάν χρησιμοποιείται για εφαρμογές στους ακόλουθους κλάδους:

  • Υποδομή ζωτικής σημασίας;
  • Εκπαίδευση και επαγγελματική κατάρτιση.
  • Εξαρτήματα και προϊόντα ασφαλείας.
  • Δουλειά;
  • Βασικές ιδιωτικές και δημόσιες υπηρεσίες.
  • Επιβολή του νόμου;
  • Διαχείριση της μετανάστευσης, του ασύλου και του ελέγχου των συνόρων.
  • Απονομή δικαιοσύνης και δημοκρατικές διαδικασίες.

«Αυτό πρέπει να είναι αρκετά προφανές. Οι περιπτώσεις χρήσης τεχνητής νοημοσύνης υψηλού κινδύνου είναι πράγματα που φυσικά θα θεωρούσατε υψηλού κινδύνου», λέει η Jeannette Gorzala, αντιπρόεδρος του Ευρωπαϊκού Φόρουμ AI, το οποίο εκπροσωπεί τους επιχειρηματίες τεχνητής νοημοσύνης στην Ευρώπη.

Ο Gorzala εκτιμά ότι μεταξύ 10 και 20 τοις εκατό όλων των εφαρμογών τεχνητής νοημοσύνης εμπίπτουν στην κατηγορία υψηλού κινδύνου.

Τι πρέπει να κάνετε εάν αναπτύσσετε ένα σύστημα τεχνητής νοημοσύνης υψηλού κινδύνου;

Εάν αναπτύσσετε ένα σύστημα τεχνητής νοημοσύνης υψηλού κινδύνου, είτε για εσωτερική χρήση είτε για πώληση, θα χρειαστεί να εκπληρώσετε πολλές υποχρεώσεις προτού η τεχνολογία μπορεί να διατεθεί στο εμπόριο και να αναπτυχθεί. Περιλαμβάνουν τη διενέργεια αξιολογήσεων κινδύνου, την ανάπτυξη συστημάτων μετριασμού, τη σύνταξη τεχνικής τεκμηρίωσης και τη χρήση δεδομένων εκπαίδευσης που πληρούν ορισμένα κριτήρια ποιότητας.

Μόλις το σύστημα πληροί αυτές τις απαιτήσεις, πρέπει να υπογραφεί μια δήλωση συμμόρφωσης και το σύστημα μπορεί να υποβληθεί στις αρχές της ΕΕ για σήμανση CE — σφραγίδα έγκρισης που πιστοποιεί ότι ένα προϊόν συμμορφώνεται με τα πρότυπα CE. Υγεία και ασφάλεια ΕΕ. Μετά από αυτό, το σύστημα θα καταχωρηθεί σε μια βάση δεδομένων της ΕΕ και θα μπορεί να διατεθεί στην αγορά.

Ένα σύστημα τεχνητής νοημοσύνης που χρησιμοποιείται σε βιομηχανία υψηλού κινδύνου μπορεί να θεωρηθεί ως μη υψηλού κινδύνου ανάλογα με την ακριβή περίπτωση χρήσης. Για παράδειγμα, εάν αναπτυχθεί για περιορισμένες διαδικαστικές εργασίες, το μοντέλο δεν χρειάζεται να λάβει σήμανση CE.

Τι γίνεται με τα συστήματα χαμηλού κινδύνου και ελάχιστου κινδύνου;

«Νομίζω ότι η μεγαλύτερη πρόκληση δεν θα είναι τα συστήματα υψηλού κινδύνου. Θα αφορά τη διαφοροποίηση μεταξύ συστημάτων χαμηλού και ελάχιστου κινδύνου», εξηγεί ο Chadi Hantouche, AI και συνεργάτης δεδομένων στην εταιρεία συμβούλων Wavestone.

Τα συστήματα τεχνητής νοημοσύνης περιορισμένου κινδύνου είναι αυτά που αλληλεπιδρούν με άτομα, για παράδειγμα μέσω περιεχομένου ήχου, βίντεο ή κειμένου όπως τα chatbots. Αυτά θα υπόκεινται σε υποχρεώσεις διαφάνειας: οι εταιρείες θα πρέπει να ενημερώνουν τους χρήστες ότι το περιεχόμενο που βλέπουν δημιουργήθηκε από AI.

Όλες οι άλλες περιπτώσεις χρήσης, όπως τα φίλτρα ανεπιθύμητης αλληλογραφίας, θεωρούνται ελάχιστος κίνδυνος και μπορούν να δημιουργηθούν και να αναπτυχθούν ελεύθερα. Η ΕΕ λέει ότι η «συντριπτική πλειοψηφία» των συστημάτων τεχνητής νοημοσύνης που αναπτύσσονται επί του παρόντος στο μπλοκ θα εμπίπτουν σε αυτήν την κατηγορία.

«Όταν υπάρχει αμφιβολία, ωστόσο, αξίζει να είστε εξαιρετικά προσεκτικοί και να προσθέσετε μια σημείωση που δείχνει ότι το περιεχόμενο δημιουργήθηκε από AI», λέει ο Hantouche.

Ποιο είναι το πρόβλημα με τα μοτίβα βάσης;

Το μεγαλύτερο μέρος της νομοθεσίας για την τεχνητή νοημοσύνη στοχεύει στη ρύθμιση των συστημάτων τεχνητής νοημοσύνης με βάση τη χρήση τους. Αλλά το κείμενο περιλαμβάνει επίσης διατάξεις που στοχεύουν στη ρύθμιση των μεγαλύτερων και ισχυρότερων μοντέλων τεχνητής νοημοσύνης, ανεξάρτητα από τις περιπτώσεις χρήσης που επιτρέπουν.

Αυτά τα μοντέλα είναι γνωστά ως AI γενικής χρήσης (GPAI) και είναι ο τύπος τεχνολογιών που χρησιμοποιούν εργαλεία όπως το ChatGPT.

Οι εταιρείες που κατασκευάζουν μοντέλα GPAI, όπως η γαλλική startup Mistral AI ή η γερμανική Aleph Alpha, έχουν διαφορετικές υποχρεώσεις ανάλογα με το μέγεθος του μοντέλου που κατασκευάζουν και αν είναι ανοιχτού κώδικα ή όχι.

Οι αυστηρότεροι κανόνες ισχύουν για κλειστά μοντέλα που έχουν εκπαιδευτεί με υπολογιστική ισχύ μεγαλύτερη από 10^25 FLOP, ένα μέτρο της ποσότητας υπολογισμού που απαιτείται για την εκπαίδευση του συστήματος. Η ΕΕ λέει ότι το GPT-4 του OpenAI και το Gemini του Google DeepMind πιθανότατα περνούν αυτό το όριο.

Πρέπει να συντάξουν τεχνική τεκμηρίωση σχετικά με τον τρόπο κατασκευής του μοντέλου τους, να εφαρμόσουν μια πολιτική πνευματικών δικαιωμάτων και να παρέχουν περιλήψεις των δεδομένων εκπαίδευσης, καθώς και να συμμορφώνονται με άλλες υποχρεώσεις που κυμαίνονται από ελέγχους κυβερνοασφάλειας, εκτιμήσεις κινδύνου και αναφορές συμβάντων.

Τα μικρότερα μοντέλα, καθώς και τα μοντέλα ανοιχτού κώδικα, εξαιρούνται από ορισμένες από αυτές τις απαιτήσεις.

Οι κανόνες που ισχύουν για τα μοντέλα GPAI είναι ξεχωριστοί από εκείνους που ισχύουν για περιπτώσεις χρήσης υψηλού κινδύνου. Μια εταιρεία που κατασκευάζει ένα βασικό μοντέλο δεν χρειάζεται απαραίτητα να συμμορφώνεται με κανονισμούς σχετικά με συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου. Είναι η εταιρεία που εφαρμόζει αυτό το μοντέλο σε περίπτωση χρήσης υψηλού κινδύνου που πρέπει να ακολουθεί αυτούς τους κανόνες.

Πρέπει να δούμε τα ρυθμιστικά sandboxes;

Κατά τα επόμενα δύο χρόνια, κάθε χώρα της ΕΕ θα δημιουργήσει ρυθμιστικά sandboxes, τα οποία θα επιτρέπουν στις εταιρείες να αναπτύσσουν, να εκπαιδεύουν, να δοκιμάζουν και να επικυρώνουν τα συστήματα τεχνητής νοημοσύνης τους υπό την επίβλεψη μιας ρυθμιστικής αρχής.

«Πρόκειται για προνομιακές σχέσεις με ρυθμιστικούς φορείς, όπου συνοδεύουν και υποστηρίζουν την εταιρεία στη διαδικασία συμμόρφωσής της», εξηγεί ο Tordeux Bitker.

«Δεδομένου πόσο η σήμανση CE πρόκειται να αλλάξει τον οδικό χάρτη προϊόντων για τις επιχειρήσεις, θα συμβούλευα κάθε εταιρεία που κατασκευάζει ένα σύστημα τεχνητής νοημοσύνης υψηλού κινδύνου να περάσει από ένα sandbox».

Ποιο είναι το ημερολόγιο;

Το χρονοδιάγραμμα θα εξαρτηθεί από την τελική ψηφοφορία για τον νόμο περί τεχνητής νοημοσύνης, η οποία αναμένεται να διεξαχθεί τους επόμενους μήνες. Μόλις ψηφιστεί, το κείμενο θα ισχύει πλήρως δύο χρόνια αργότερα.

Υπάρχουν ορισμένες εξαιρέσεις: Τα συστήματα τεχνητής νοημοσύνης που παρουσιάζουν απαράδεκτο κίνδυνο θα πρέπει να αφαιρεθούν από την αγορά εντός έξι μηνών και τα μοντέλα GPAI θα πρέπει να συμμορφωθούν μέχρι το επόμενο έτος.

Θα μπορούσε να σας επιβληθεί πρόστιμο;

Η μη συμμόρφωση μπορεί να έχει υψηλό κόστος. Το μάρκετινγκ ενός απαγορευμένου συστήματος τεχνητής νοημοσύνης θα τιμωρείται με πρόστιμο 35 εκατομμυρίων ευρώ, ή έως και 7% του παγκόσμιου τζίρου. Σε περίπτωση μη τήρησης των υποχρεώσεων που καλύπτουν συστήματα υψηλού κινδύνου επιβάλλεται πρόστιμο 15 εκατομμυρίων ευρώ, ή 3% του συνολικού τζίρου. Και κάθε ανακριβής πληροφορία θα τιμωρείται με πρόστιμο 7,5 εκατομμυρίων ευρώ, ή 1% του παγκόσμιου τζίρου.

Για νεοφυείς επιχειρήσεις και ΜΜΕ, το πρόστιμο θα είναι το χαμηλότερο ποσοστό ή ποσό.

«Δεν νομίζω ότι τα πρόστιμα θα έρθουν αμέσως και απροσδόκητα», λέει ο Hantouche. «Με τον GDPR για παράδειγμα, ήρθαν τα πρώτα σημαντικά πρόστιμα μετά από λίγα χρόνια, αρκετές προειδοποιήσεις και πολλές συζητήσεις. »

Σε περίπτωση αμφιβολίας, ποιο είναι το καλύτερο POC σας;

Κάθε κράτος μέλος της ΕΕ έχει αναλάβει να ορίσει μια εθνική αρχή για την εφαρμογή και την επιβολή του νόμου. Αυτά θα βοηθήσουν επίσης τις επιχειρήσεις να συμμορφωθούν με τη νομοθεσία.

Επιπλέον, η ΕΕ θα δημιουργήσει ένα νέο Ευρωπαϊκό Γραφείο τεχνητής νοημοσύνης, το οποίο θα είναι το κύριο σημείο επαφής για τις εταιρείες για να υποβάλουν τη δήλωση συμμόρφωσής τους εάν διαθέτουν σύστημα τεχνητής νοημοσύνης υψηλού κινδύνου.

Leave a Reply

Your email address will not be published. Required fields are marked *