“Η τεχνητή νοημοσύνη είναι μέσο, όχι αυτοσκοπός. (…)
Στόχος των σημερινών προτάσεων είναι να ενισχυθεί η θέση της Ευρώπης ως παγκόσμιου κόμβου αριστείας στον τομέα της τεχνητής νοημοσύνης από το εργαστήριο στην αγορά, να διασφαλιστεί ότι η τεχνητή νοημοσύνη στην Ευρώπη σέβεται τις αξίες και τους κανόνες μας και να αξιοποιηθεί το δυναμικό της για βιομηχανική χρήση.”
Thierry Breton, Ευρωπαίος Eπίτροπος Εσωτερικής Αγοράς
Στις 21.04.2021 η Ευρωπαϊκή Επιτροπή δημοσίευσε πρόταση Κανονισμού για “θέσπιση εναρμονισμένων κανόνων για την Τεχνητή Νοημοσύνη και τροποποίηση ορισμένων νομοθετικών πράξεων της Ένωσης”. Ο συνδυασμός του πρώτου νομικού πλαισίου για την τεχνητή νοημοσύνη (ΑΙ) και ενός νέου συντονισμένου σχεδίου με τα κράτη μέλη της ΕΕ στόχο έχει να εγγυηθεί την ασφάλεια και τα θεμελιώδη δικαιώματα των πολιτών και των επιχειρήσεων, ενισχύοντας ταυτόχρονα την αποδοχή της τεχνητής νοημοσύνης, τις επενδύσεις και την καινοτομία σε ολόκληρη την ΕΕ. Παράλληλα, οι νέοι κανόνες για τα μηχανήματα θα συμπληρώσουν την εν λόγω προσέγγιση προσαρμόζοντας τους κανόνες ασφαλείας, ώστε να ενισχυθεί η εμπιστοσύνη των χρηστών στη νέα πολυδύναμη γενιά προϊόντων.
Η πρόταση Κανονισμού είναι αποτέλεσμα αρκετών ετών προπαρασκευαστικών εργασιών της ΕΕ, συμπεριλαμβανομένων της “Ευρωπαϊκής στρατηγικής για την τεχνητή νοημοσύνη” του 2018, του “πρώτου συντονισμένου σχεδίου για την τεχνητή νοημοσύνη” του 2018, των “Κατευθυντήριων γραμμών για αξιόπιστη τεχνητή νοημοσύνη” του 2019, καθώς και της “Λευκής Βίβλου για την Τεχνητή Νοημοσύνη” του 2020, η οποία παρουσιάζει ένα σαφές όραμα για την τεχνητή νοημοσύνη στην Ευρώπη: ένα οικοσύστημα αριστείας και εμπιστοσύνης, το οποίο διαμορφώνει το πλαίσιο για την προκείμενη πρόταση Κανονισμού.
Η “Έκθεση σχετικά με τις συνέπειες της τεχνητής νοημοσύνης, του διαδικτύου των πραγμάτων και της ρομποτικής στην ασφάλεια και την ευθύνη”, η οποία συνόδευε την εν λόγω Λευκή Βίβλο, κατέληγε στο συμπέρασμα ότι η ισχύουσα νομοθεσία για την ασφάλεια των προϊόντων έχει ορισμένα κενά που έπρεπε να καλυφθούν, ιδίως στην Οδηγία 2006/42/ΕΚ (“Οδηγία για τα μηχανήματα”).
Η εκτελεστική Αντιπρόεδρος για “Μια Ευρώπη έτοιμη για την ψηφιακή εποχή”, Margrethe Vestager, δήλωσε σχετικά με τη πρόταση Κανονισμού: “Όσον αφορά την τεχνητή νοημοσύνη, η εμπιστοσύνη σε αυτή είναι απολύτως αναγκαία και όχι απλώς ευκταία. Με αυτούς τους κανόνες-ορόσημο, η ΕΕ πρωτοστατεί στην ανάπτυξη νέων παγκόσμιων προτύπων ώστε να διασφαλιστεί ότι μπορούμε να έχουμε εμπιστοσύνη στην τεχνητή νοημοσύνη. Καθορίζοντας τα πρότυπα, μπορούμε να προετοιμάσουμε το έδαφος για μια τεχνολογία βασιζόμενη σε δεοντολογικές αρχές σε παγκόσμιο επίπεδο και να διασφαλίσουμε ότι η ΕΕ παραμένει ανταγωνιστική καθ’ όλη τη διαδικασία. Οι κανόνες μας, διαχρονικοί και φιλικοί προς την καινοτομία, θα παρεμβαίνουν όπου είναι απολύτως αναγκαίο: όταν διακυβεύονται η ασφάλεια και τα θεμελιώδη δικαιώματα των πολιτών της ΕΕ.”
Η νομική βάση της πρότασης Κανονισμού είναι καταρχάς το άρθρο 114 της Συνθήκης για τη Λειτουργία της ΕΕ (ΣΛΕΕ), η οποία προβλέπει τη λήψη μέτρων για τη διασφάλιση της λειτουργίας της εσωτερικής αγοράς. Επιπλέον, δεδομένου ότι περιέχονται ορισμένοι ειδικοί κανόνες για την προστασία του άτομου αναφορικά με την επεξεργασία δεδομένων προσωπικού χαρακτήρα, ιδίως περιορισμοί στη χρήση συστημάτων AI για απομακρυσμένη βιομετρική ταυτοποίηση σε “πραγματικό χρόνο” σε δημόσιους χώρους για τον σκοπό της επιβολής του νόμου, η πρόταση βασίζεται, στον βαθμό που αφορά σε συγκεκριμένους κανόνες, στο άρθρο 16 της ΣΛΕΕ.
Η επιλογή ενός Κανονισμού ως νομικού μέσου δικαιολογείται από την ανάγκη της ενιαίας εφαρμογής των νέων κανόνων, όπως του ορισμού της τεχνητής νοημοσύνης, της απαγόρευσης ορισμένων επιβλαβών πρακτικών με δυνατότητα AI και της ταξινόμησης ορισμένων συστημάτων AI. Η άμεση ισχύς του Κανονισμού, σύμφωνα με το άρθρο 288 ΣΛΕΕ, θα μειώσει τον νομικό κατακερματισμό και θα διευκολύνει την ανάπτυξη μιας ενιαίας αγοράς για νόμιμα, ασφαλή και αξιόπιστα συστήματα AI.
Η Ευρωπαϊκή Επιτροπή προτείνει κατά τη νομοθετική ρύθμιση της τεχνητής νοημοσύνης μια προσέγγιση με βάση τον κίνδυνο με διαβάθμιση τεσσάρων επιπέδων.
Η πρόταση του Κανονισμού περιέχει 12 Τίτλους (Τίτλος I – XII) και συνολικά 85 άρθρα. Σύμφωνα με το άρθρο 3 αυτής, όπου περιλαμβάνονται οι ορισμοί, ο όρος “σύστημα τεχνητής νοημοσύνης” (στοιχ. 1) ορίζεται ως “λογισμικό που έχει αναπτυχθεί με μία ή περισσότερες από τις τεχνικές και προσεγγίσεις που παρατίθενται στο παράρτημα Ι και μπορεί, για ένα δεδομένο σύνολο καθορισμένων από τον άνθρωπο στόχων, να παράγει αποτελέσματα όπως περιεχόμενο, προβλέψεις, προτάσεις ή αποφάσεις που επηρεάζουν περιβάλλοντα με τα οποία αλληλεπιδρούν”.
Η Ευρωπαϊκή Επιτροπή αναγνωρίζοντας αφενός τις δυνατότητες και τα οφέλη της τεχνητής νοημοσύνης και αφετέρου τους κινδύνους που παρουσιάζουν οι νέες τεχνολογίες στις ευρωπαϊκές αξίες και τα θεμελιώδη δικαιώματα και τις αρχές προτείνει μια προσέγγιση με βάση τον κίνδυνο, με διαβάθμιση τεσσάρων επιπέδων, ως ακολούθως:
- Μη αποδεκτός κίνδυνος: Τα συστήματα ΑΙ που θεωρείται ότι συνιστούν σαφή απειλή για την ασφάλεια, τον βιοπορισμό και τα δικαιώματα των ατόμωνθα απαγορεύονται. Περιλαμβάνονται συστήματα ή εφαρμογές ΑΙ που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούληση των χρηστών (όπως παιχνίδια με φωνητικό βοηθό που παροτρύνουν ανηλίκους σε επικίνδυνη συμπεριφορά) και συστήματα που επιτρέπουν την ‘κοινωνική βαθμολόγηση’ από τις κυβερνήσεις.
- Υψηλός κίνδυνος: Στα συστήματα ΑΙ που χαρακτηρίζονται ως υψηλού κινδύνου περιλαμβάνεται η τεχνολογία ΑΙ που χρησιμοποιείται:
- στις υποδομές ζωτικής σημασίας(π.χ. μεταφορές), τεχνολογία ΑΙ που θα μπορούσε να θέσει σε κίνδυνο τη ζωή και την υγεία των πολιτών·
- στην εκπαίδευση ή την επαγγελματική κατάρτιση, τεχνολογία ΑΙ που μπορεί να καθορίζει την πρόσβαση στην εκπαίδευση και την πορεία της επαγγελματικής ζωής ενός ατόμου (π.χ. βαθμολόγηση εξετάσεων)·
- στα κατασκευαστικά στοιχεία ασφαλείας των προϊόντων(π.χ. εφαρμογή ΑΙ σε υποβοηθούμενη από ρομπότ χειρουργική)·
- στην απασχόληση, στη διαχείριση εργαζομένων και στην πρόσβαση στην αυτοαπασχόληση(π.χ. λογισμικό διαλογής βιογραφικών σημειωμάτων για διαδικασίες πρόσληψης)·
- στις βασικές ιδιωτικές και δημόσιες υπηρεσίες(π.χ. αξιολόγηση πιστοληπτικής ικανότητας που στερεί από τους πολίτες τη δυνατότητα να λαμβάνουν δάνεια)·
- στην επιβολή του νόμου, τεχνολογία ΑΙ που μπορεί να παρεμβαίνει στα θεμελιώδη δικαιώματα των πολιτών (π.χ. αξιολόγηση της αξιοπιστίας των αποδεικτικών στοιχείων)·
- στη διαχείριση της μετανάστευσης, του ασύλου και των συνοριακώνελέγχων (π.χ. εξακρίβωση της γνησιότητας ταξιδιωτικών εγγράφων)·
- στην απονομή δικαιοσύνηςκαι στις δημοκρατικές διαδικασίες (π.χ. εφαρμογή του νόμου σε συγκεκριμένα πραγματικά περιστατικά).
Τα συστήματα ΑΙ υψηλού κινδύνου θα υπόκεινται σε αυστηρές υποχρεώσεις προτού επιτραπεί η διάθεσή τους στην αγορά:
- Κατάλληλα συστήματα εκτίμησης και μετριασμού των κινδύνων·
- Υψηλή ποιότητα των συνόλων δεδομένωνπου τροφοδοτούν το σύστημα ώστε να ελαχιστοποιούνται οι κίνδυνοι και οι διακρίσεις·
- Καταγραφή των δραστηριοτήτων με σκοπό τη διασφάλιση της ιχνηλασιμότητας των αποτελεσμάτων·
- Λεπτομερής τεκμηρίωσηπου παρέχει όλες τις απαραίτητες πληροφορίες σχετικά με το σύστημα και τον σκοπό του ώστε οι αρχές να αξιολογούν τη συμμόρφωσή του·
- Σαφείς και επαρκείς πληροφορίεςγια τον χρήστη·
- Κατάλληλα μέτρα ανθρώπινης εποπτείαςγια την ελαχιστοποίηση του κινδύνου·
- Υψηλό επίπεδοανθεκτικότητας, ασφάλειας και ακρίβειας.
Σε Παράρτημα της πρότασης παρουσιάζεται λίστα χρήσης εφαρμογών ΑΙ υψηλού κινδύνου. Σύμφωνα με την πρόταση, η Ευρωπαϊκή Επιτροπή θα μεριμνά ώστε ο κατάλογος αυτός να επικαιροποιείται και να είναι συναφής, με βάση τα προαναφερθέντα κριτήρια και αποδεικτικά στοιχεία και γνωμοδοτήσεις εμπειρογνωμόνων, κατόπιν διαβούλευσης με τα ενδιαφερόμενα μέρη.
- Περιορισμένος κίνδυνος: Συστήματα ΑΙ που υπόκεινται σε συγκεκριμένες υποχρεώσεις διαφάνειας (όπως τα διαλογικά ρομπότ (chatbot)), στα οποία οι χρήστες θα πρέπει να γνωρίζουν ότι αλληλεπιδρούν με μηχάνημα, ώστε να μπορούν να λάβουν τεκμηριωμένη απόφαση να συνεχίσουν ή να διακόψουν την αλληλεπίδραση.
- Ελάχιστος κίνδυνος: Επιτρέπεται η ελεύθερη χρήση εφαρμογών βασισμένων στην τεχνητή νοημοσύνη ή φίλτρων ανεπιθύμητης αλληλογραφίας. Η πρόταση Κανονισμού δεν παρεμβαίνει σε αυτή την κατηγορία, καθώς αυτά τα συστήματα συνεπάγονται μόνον ελάχιστο ή μηδενικό κίνδυνο για τα δικαιώματα και την ασφάλεια των πολιτών.
Η Ευρωπαϊκή Επιτροπή προτείνει κάθε κράτος μέλος να ορίσει μία ή περισσότερες εθνικές αρμόδιες αρχές για την εποπτεία της εφαρμογής και της υλοποίησης, καθώς και για τη διεξαγωγή δραστηριοτήτων εποπτείας της αγοράς. Η δημιουργία ενός Ευρωπαϊκού Συμβουλίου Τεχνητής Νοημοσύνης, στο οποίο κάθε κράτος μέλος θα εκπροσωπείται από την εθνική εποπτική αρχή, θα διευκολύνει την ομαλή, αποτελεσματική και εναρμονισμένη εφαρμογή του νέου νομοθετικού πλαισίου. Εθελοντικοί κώδικες δεοντολογίας για τεχνητή νοημοσύνη μη υψηλού κινδύνου και ρυθμιστικά δοκιμαστήρια για τη διευκόλυνση της υπεύθυνης καινοτομίας θα συμβάλουν στην αύξηση της αποτελεσματικότητας του νέου νομοθετικού πλαισίου.
Η πρόταση Κανονισμού για την τεχνητή νοημοσύνη αποτελεί μέρος των προσπαθειών που καταβάλλει η ΕΕ με σκοπό να αναλάβει ηγετικό ρόλο σε διεθνές επίπεδο.
Η πρόταση Κανονισμού για τα μηχανήματα σε αντικατάσταση της “Οδηγίας για τα μηχανήματα” διασφαλίζει ότι η νέα γενιά μηχανολογικών προϊόντων εγγυάται την ασφάλεια των χρηστών και των καταναλωτών και ενθαρρύνει την καινοτομία. Το κανονιστικό αυτό πλαίσιο λειτουργεί συμπληρωματικά προς το κανονιστικό πλαίσιο για την τεχνητή νοημοσύνη. Ο Κανονισμός για την τεχνητή νοημοσύνη θα αντιμετωπίσει τους κινδύνους ασφάλειας των συστημάτων ΑΙ, ενώ ο Κανονισμός για τα μηχανήματα θα διασφαλίζει, κατά περίπτωση, την ασφαλή ενσωμάτωση των συστημάτων ΑΙ στο σύνολο των μηχανημάτων, ώστε να μην τίθεται σε κίνδυνο η ασφάλειά τους.
Η πρόταση για κανονιστικό πλαίσιο και το συντονισμένο σχέδιο για την τεχνητή νοημοσύνη αποτελούν μέρος των προσπαθειών που καταβάλλει η ΕΕ με σκοπό να αναλάβει ηγετικό ρόλο παγκοσμίως στην προώθηση της αξιόπιστης τεχνητής νοημοσύνης σε διεθνές επίπεδο.
Οι εκδόσεις των σχετικών κειμένων θα έχουν δημοσιευτεί σε όλες τις επίσημες γλώσσες της ΕΕ έως τα τέλη Μαΐου 2021.
Ο Κανονισμός θα τεθεί σε ισχύ, σύμφωνα με το άρθρο 85 της πρότασης, 20 ημέρες μετά τη δημοσίευσή του στην Επίσημη Εφημερίδα της ΕΕ, ενώ θα εφαρμοστεί 24 μήνες μετά την έναρξη ισχύος. Ωστόσο, ορισμένες διατάξεις θα εφαρμοστούν νωρίτερα. Αυτή η μακρά “περίοδος χάριτος” αυξάνει ενδεχομένως τον κίνδυνο ορισμένες από τις διατάξεις του να ξεπεραστούν από τις τεχνολογικές εξελίξεις πριν ακόμη εφαρμοστούν, παρά τις προσπάθειες της Ευρωπαϊκής Επιτροπής να καταστήσει τον Κανονισμό πιο βιώσιμο για το μέλλον.
Το επόμενο βήμα είναι οι συζητήσεις επί της πρότασης του Κανονισμού σε επίπεδο Ευρωπαϊκού Κοινοβουλίου και Ευρωπαϊκού Συμβουλίου, οι οποίες αναμένονται με ιδιαίτερο ενδιαφέρον. Αδιαμφισβήτητα θα υπάρξουν διευκρινίσεις και τροπολογίες, προκειμένου η ΕΕ και τα κράτη μέλη της να κατορθώσουν να ανταποκριθούν στις παγκόσμιες προκλήσεις της τεχνολογίας και όχι μόνο, εξασφαλίζοντας την προώθηση της κοινωνικής ανάκαμψης και της ανθεκτικής οικονομίας και καθιστώντας την Ευρώπη πρωτοπόρο στον τομέα της αξιόπιστης τεχνητής νοημοσύνης.