Μόλις 5 χρόνια μετά τη θέση σε εφαρμογή του Γενικού Κανονισμού Προστασίας Δεδομένων (ΓΚΠΔ ή GDPR) και οι ραγδαίες τεχνολογικές (και όχι μόνον) εξελίξεις έχουν αλλάξει άρδην το τοπίο της ιδιωτικότητας και της προστασίας δεδομένων προσωπικού χαρακτήρα.
Οι μεγάλες ανατροπές στο πεδίο των διεθνών διαβάσεων και της ελεύθερης διασυνοριακής ροής δεδομένων – από τις αποφάσεις Schrems I και II και την αποχώρηση του Ηνωμένου Βασιλείου από την ΕΕ, μέχρι την πολύ πρόσφατη απόφαση της Επιτροπής Προστασίας Δεδομένων της Ιρλανδίας για το πρόστιμο – ρεκόρ ύψους 1,2 δισ. ευρώ στη Meta (Facebook) λόγω διαβίβασης δεδομένων από την ΕΕ στις ΗΠΑ, κατά παράβαση του άρθρου 46 παρ. 1 GDPR – είναι σίγουρα από τις ιδιαίτερα καθοριστικές εξελίξεις που ‘κρατούν ξύπνιες’ επιχειρήσεις, θεσμικούς φορείς και privacy professionals.
Η μεγάλη πρωταγωνίστρια, ωστόσο, των τελευταίων ετών, δεν είναι άλλη από την τεχνητή νοημοσύνη (ΤΝ), η οποία έχει αναμφίβολα εισβάλλει στη ζωή μας, ανατρέποντας τον τρόπο που ζούμε, επικοινωνούμε και εργαζόμαστε. Ήδη από τον Μάρτιο του 2023 το πολυσυζητημένο ChatGPT κυκλοφορεί στην 4η έκδοσή του και δεν θα ήταν υπερβολή να πούμε ότι η έρευνα μέσω της δημοφιλούς εφαρμογής τείνει να αντικαταστήσει το περίφημο ‘googl-άρω’.
Προσβάσιμο και στη διάθεση όλων, το ChatGPT συνιστά αναπόσπαστο, πλέον, κομμάτι της επαγγελματικής, όσο και της προσωπικής μας καθημερινότητας. Όπως σημειώνει η Υπεύθυνη Προστασίας Δεδομένων της ΤΕΙΡΕΣΙΑΣ Α.Ε., κ. Κική Τσουρού, ‘αναμφίβολα μία τόσο σημαντική εξέλιξη της σύγχρονης ζωής δεν μπορεί παρά να επηρεάζει και τους περισσότερους τομείς του δικαίου, πολλώ δε μάλλον την άσκηση των θεμελιωδών ανθρώπινων δικαιωμάτων και κατ’ επέκταση την ασφάλεια των προσωπικών δεδομένων’.
Τεχνητή νοημοσύνη: Εργαλείο ή ‘απειλή’;
Η τεχνητή νοημοσύνη παρουσιάζει αναμφίβολα σημαντικές ευκαιρίες σε κοινωνικοοικονομικό επίπεδο, αποτελώντας ιδιαίτερα χρήσιμο εργαλείο σε πάρα πολλές εκφάνσεις της καθημερινότητάς μας. Από τις εξατομικευμένες συστάσεις στο πλαίσιο των διαδικτυακών αγορών, τις μηχανές αναζήτησης και τους ψηφιακούς προσωπικούς βοηθούς, μέχρι έξυπνα σπίτια, πόλεις και υποδομές και, βέβαια, τις εφαρμογές της τεχνητής νοημοσύνης στον τομέα της υγείας. Επιπλέον, σύμφωνα με την κ. Τσουρού, τα συστήματα τεχνητής νοημοσύνης μπορούν να συμβάλουν στην ανίχνευση των ψευδών ειδήσεων και της παραπληροφόρησης στα κοινωνικά δίκτυα, ενώ μπορούν να αποδειχθούν ιδιαίτερα βοηθητικά και στην καταπολέμηση της ηλεκτρονικής ή τραπεζικής απάτης, την αντιμετώπιση ανθρώπινων λαθών που ενδεχομένως οδηγούν σε παραβίαση της προστασίας προσωπικών δεδομένων, την ενίσχυση των συστημάτων ασφάλειας και την καταπολέμηση της πλαστοπροσωπίας.
Η τεχνητή νοημοσύνη λοιπόν, όπως μας εξηγεί και ο Αναπληρωτής Διευθύνων Εταίρος/Deputy Managing Partner της Σιούφας και Συνεργάτες Δικηγορική Εταιρεία, κ. Μάριος Σιούφας, ‘αποτελεί ένα εργαλείο τεχνολογίας στα χέρια της κοινωνίας, όπως είναι και τα υπόλοιπα εργαλεία τεχνολογίας. Εξαρτάται λοιπόν από αυτήν, προς ποια κατεύθυνση ακριβώς θα την αξιοποιήσει’.
Από την άλλη πλευρά, πρόκειται για μια τεχνολογία η οποία στηρίζει την ανάπτυξή της στους μεγάλους όγκους δεδομένων, ενώ λειτουργεί με όρους black box, χωρίς να είναι σαφές και ξεκάθαρο όχι μόνον σε αυτούς που την χρησιμοποιούν, αλλά και σε όσους την δημιουργούν, πώς ακριβώς δουλεύει. Όπως σημειώνει ο κ. Ιωσήφ Αβραμίδης, Manager, Data Protection & Compliance του Διεθνούς Αερολιμένα Αθηνών, ‘η «βουλιμία» με την οποία το Chat GPT (αλλά και οι άλλες ανάλογες πλατφόρμες που αναπτύσσονται από Google & Apple) συλλέγει και συνθέτει δεδομένα προκαλεί τεράστια ζητήματα σε σχέση με τις αρχές που θέτει η ισχύουσα νομοθεσία προστασίας ΔΠΧ’.
Προς αυτήν την κατεύθυνση, ο κ. Σπύρος Τάσσης, Πρόεδρος της Ελληνικής Ένωσης για την Προστασία Προσωπικών Δεδομένων και Ιδιωτικότητας, επισημαίνει ότι ‘τα συστήματα ΤΝ συχνά απαιτούν πρόσβαση σε μεγάλες ποσότητες δεδομένων, συμπεριλαμβανομένων προσωπικών και ευαίσθητων πληροφοριών, μία ανάγκη που συγκρούεται με τις βασικές αρχές της ελαχιστοποίησης και της αναγκαιότητας στην επεξεργασία δεδομένων’.
Ας δούμε, λοιπόν, μερικούς από τους κινδύνους και τις προκλήσεις που προκύπτουν από την αλληλεπίδραση της ΤΝ με την ιδιωτικότητα: Παραβίαση αρχών για τη νόμιμη επεξεργασία των προσωπικών δεδομένων:
Η διαφάνεια αποτελεί μια από τις θεμελιώδεις αρχές του ΓΚΠΔ, η οποία απαιτεί από τους υπεύθυνους επεξεργασίας να παρέχουν στα υποκείμενα αναλυτικές πληροφορίες σχετικά με την επεξεργασία των δεδομένων και τους σκοπούς αυτής, και μάλιστα η εν λόγω ενημέρωση πρέπει να πραγματοποιείται πριν την έναρξη της επεξεργασίας, σε συνοπτική, διαφανή, κατανοητή και εύκολα προσβάσιμη μορφή, με σαφή και απλή διατύπωση. Πώς θα υλοποιηθεί η συγκεκριμένη υποχρέωση δεδομένου ότι τα μοντέλα τεχνητής νοημοσύνης λειτουργούν σαν ένα ‘μαύρο κουτί’, χωρίς να είναι απολύτως σαφές – ακόμα και στους προγραμματιστές που αναπτύσσουν τον αλγόριθμο – πώς ακριβώς λαμβάνονται οι αποφάσεις;
Επιπροσθέτως, ελλείψει της απαιτούμενης ενημέρωσης, ιδιαίτερα αμφίβολο είναι το κατά πόσον λαμβάνεται νομίμως η ρητή συγκατάθεση των υποκειμένων των δεδομένων για την επεξεργασία των στοιχείων τους από την εκάστοτε εφαρμογή ΤΝ. Άλλωστε η συγκατάθεση, σύμφωνα με τον ΓΚΠΔ, θα πρέπει να παρέχεται με σαφή θετική ενέργεια η οποία να συνιστά ελεύθερη, συγκεκριμένη, ρητή και εν πλήρει επιγνώσει ένδειξη της συμφωνίας του υποκειμένου υπέρ της επεξεργασίας των δεδομένων που το αφορούν, ενώ θα πρέπει να καλύπτει το σύνολο των δραστηριοτήτων επεξεργασίας που διενεργείται για τον ίδιο σκοπό ή για τους ίδιους σκοπούς. Όταν η επεξεργασία έχει πολλαπλούς σκοπούς, θα πρέπει να δίνεται συγκατάθεση για όλους αυτούς τους σκοπούς. Διευκρινίζεται ότι για να θεωρηθεί η συγκατάθεση εν επιγνώσει, το υποκείμενο των δεδομένων θα πρέπει να γνωρίζει τουλάχιστον την ταυτότητα του υπευθύνου επεξεργασίας και τους σκοπούς της επεξεργασίας για την οποία προορίζονται τα δεδομένα προσωπικού χαρακτήρα. Σημειωτέον ότι η επεξεργασία ειδικών κατηγοριών δεδομένων, όπως είναι ενδεικτικά τα δεδομένα που αποκαλύπτουν τη φυλετική ή εθνοτική καταγωγή, τα πολιτικά φρονήματα, τις θρησκευτικές πεποιθήσεις, καθώς και δεδομένα που αφορούν την υγεία ή τη σεξουαλική ζωή φυσικού προσώπου, προϋποθέτει ξεχωριστή, ρητή συγκατάθεση.
Ενδιαφέρον παρουσιάζει και το φαινόμενο ‘function creep’, η περαιτέρω, δηλαδή, επεξεργασία των προσωπικών δεδομένων για σκοπό άλλο από αυτόν για τον οποίο έχουν εξαρχής συλλεγεί – χωρίς την προσήκουσα προηγούμενη ενημέρωση των υποκειμένων και τη λήψη της συγκατάθεσής τους. Για την αποφυγή της μη νόμιμης περαιτέρω επεξεργασίας, ο υπεύθυνος θα πρέπει να ενημερώνει εξαρχής και αναλυτικά – κατά τη συλλογή των δεδομένων – για όλους τους σκοπούς επεξεργασίας και να λαμβάνει ξεχωριστή συγκατάθεση για κάθε έναν εξ’ αυτών. Στην πράξη, λαμβάνοντας υπόψη και τα ανωτέρω σχετικά με την αδυναμία επεξήγησης των μοντέλων τεχνητής νοημοσύνης, η ενημέρωση (εάν υπάρχει) είναι ελλιπής, ενώ δεν λαμβάνεται η απαιτούμενη συγκατάθεση των υποκειμένων, καθιστώντας την επεξεργασία μη συμμορφούμενη με τις διατάξεις του GDPR.
Ο κίνδυνος της δυνητικής παράβασης της αρχής της νομιμότητας επισημαίνεται και από τον κ. Αβραμίδη, ο οποίος εξηγεί ότι, ‘καθώς μιλάμε για μια νέα επεξεργασία πέρα από αυτή για την οποία τα δεδομένα αυτά δημοσιεύτηκαν, θα πρέπει να έχει προηγηθεί πλήρης ενημέρωση και συναίνεση του υποκειμένου, ελεύθερα και με πλήρη επίγνωση όλων των παραμέτρων που αφορούν το σκοπό, τα μέσα, τη διάρκεια, τους αποδέκτες κλπ. των δεδομένων τους, όπως αυτά συλλέγονται συλλήβδην από την ΤΝ και είναι άπειρα’.
Ακρίβεια δεδομένων και μεροληπτική λήψη αποφάσεων:
Oι αλγόριθμοι τεχνητής νοημοσύνης ενδέχεται να επηρεαστούν από προκαταλήψεις που εμπεριέχονται στα δεδομένα που χρησιμοποιούνται για την εκπαίδευσή τους, με αποτέλεσμα την άνιση μεταχείριση και τις διακρίσεις εις βάρος ανθρώπων. Σύμφωνα με τον κ. Τάσση, ‘οι αλγόριθμοι ΤΝ μπορεί να ενισχύσουν ακούσια τις υπάρχουσες προκαταλήψεις που υπάρχουν στα δεδομένα στα οποία εκπαιδεύονται και με τα οποία τροφοδοτούνται, οδηγώντας σε αυτοματοποιημένα αποτελέσματα που εισάγουν διακρίσεις και σε άδικη μεταχείριση ορισμένων ατόμων ή ομάδων’.
Επιπλέον, όπως παρατηρεί ο κ. Αβραμίδης, ‘δεν υπάρχουν εγγυήσεις ως προς την ακρίβεια των δεδομένων, την επικαιροποίησή τους, τυχόν διασπορά τους, πριν την αναγκαία διασταύρωσή τους’.
Πριν από μερικά χρόνια, η Ολλανδική κυβέρνηση βρέθηκε στο επίκεντρο ενός σκανδάλου (το λεγόμενο “toeslagenaffaire”), όταν διαπιστώθηκε ότι χρησιμοποιούσε έναν αλγόριθμο τεχνητής νοημοσύνης ο οποίος, μέσω της δημιουργίας ‘προφίλ ρίσκου’, στόχευε στον εντοπισμό προσώπων που είχαν διαπράξει απάτη για τη λήψη επιδομάτων φροντίδας παιδιού. Με μόνη την υποψία της απάτης – όπως αυτή είχε διαμορφωθεί βάσει των δεικτών ρίσκου του συστήματος – οι αρμόδιες αρχές προέβησαν στη δίωξη χιλιάδων οικογενειών, οι οποίες κλήθηκαν να καταβάλουν αναδρομικά, εν είδει προστίμου, το σύνολο των επιδομάτων που είχαν λάβει έως εκείνη τη χρονική στιγμή. Ως ένδειξη ρίσκου το σύστημα σημείωνε τη διπλή ιθαγένεια, τη ‘μη Δυτική’ εμφάνιση, καθώς και το χαμηλό εισόδημα – χωρίς όμως αποδεικτικά στοιχεία που να καταδεικνύουν τη διάπραξη απάτης.
Η Chermaine Leysner, μήτερα τριών παιδιών (τότε κάτω των 6 ετών) γεννημένη στην Ολλανδία με ρίζες από το Σουρινάμ, ήταν μία από εκ των ‘θυμάτων’ του συστήματος, η οποία το 2012 υποχρεώθηκε από τις φορολογικές αρχές στην επιστροφή όλων των σχετικών επιδομάτων που είχε λάβει από το 2008, τα οποία υπολογίζονταν σε περισσότερα από 100.000 ευρώ. Πέρα από την ιθαγένειά της, το γεγονός ότι τα δύο από τα παιδιά της είναι δίδυμα φαίνεται πως επηρέασε τον χαρακτηρισμό της ως ύποπτης για απάτη, λόγω του ότι θα χρειαζόταν μεγαλύτερη υποστήριξη από την κυβέρνηση για να τα μεγαλώσει. Το διαζύγιο και τα προβλήματα υγείας στην οικογένειά της ήταν μερικές μόνον από τις συνέπειες που υπέστη η Leysner λόγω της προκατάληψης του αλγορίθμου, ο οποίος είχε σαν αποτέλεσμα χιλιάδες παιδιά να σταλούν σε ανάδοχες οικογένειες, ενώ υπήρξαν περιπτώσεις θυμάτων που οδηγήθηκαν μέχρι και στην αυτοκτονία, λόγω του σκανδάλου.
Τον Δεκέμβριο του 2021 η Ολλανδική αρχή προστασίας δεδομένων επέβαλε στην Ολλανδική φορολογική διοίκηση πρόστιμο ύψους 2,75 εκατομμυρίων ευρώ για την παράνομη και άδικη επεξεργασία των προσωπικών δεδομένων η οποία οδήγησε σε διάκριση των αιτούντων επιδόματος με διπλή ιθαγένεια.
Ασφάλεια δεδομένων:
Ιδιαίτερα μεγάλη πρόκληση, λόγω της ραγδαίας επέλασης της τεχνητής νοημοσύνης, συνιστά η ασφάλεια των δεδομένων που τροφοδοτούν τα συστήματα ΤΝ, προκειμένου αυτά να εκπαιδευτούν. Πρόκειται για έναν τεράστιο όγκο δεδομένων – όλως ενδεικτικώς από την τοποθεσία των χρηστών, αγοραστικές συνήθειες, πλοήγηση στο διαδίκτυο και σε άλλες ψηφιακές εφαρμογές, μέχρι και δεδομένα υγείας και άλλα ευαίσθητα χαρακτηριστικά (όπως γένος, φυλή, εθνικότητα, θρησκεία, πολιτικό φρόνημα, σεξουαλικός προσανατολισμός).
Όπως αναφέρει ο κ. Αβραμίδης, ‘γράφεται πως ο αλγόριθμος του ChatGPT εκπαιδεύτηκε πάνω σε 500 δις στοιχεία δεδομένων, όπως ιστοσελίδες, έγγραφα, αναρτήσεις σε μέσα κοινωνικής δικτύωσης, e-books, blogs και αναρίθμητες άλλες πηγές’.
Αν οι εν λόγω βάσεις δεδομένων δεν προστατεύονται καταλλήλως από προηγμένα τεχνικά και οργανωτικά μέτρα ασφαλείας, είναι προφανές ότι ο κίνδυνος παραβίασης είναι ιδιαίτερα αυξημένος – πολλώ δε μάλλον αν ληφθεί υπόψη ότι στα δεδομένα περιλαμβάνονται πολύ συχνά και ευαίσθητες πληροφορίες. ‘Εξαιτίας ενός bug στην βιβλιοθήκη ανοιχτού κώδικα που χρησιμοποιεί το Chat GPT, διέρρευσαν συνομιλίες των χρηστών με τη πλατφόρμα, αναγκάζοντας τον Σαμ Άλτμαν, τον πρόεδρο και διευθύνοντα σύμβουλο της OpenAI, να δηλώσει ενώπιον αμερικανικής κοινοβουλευτικής επιτροπής, ότι τάσσεται υπέρ των παρεμβάσεων από τις κυβερνήσεις για να ρυθμιστεί η ανάπτυξη και η χρήση της Τεχνητής Νοημοσύνης’, εξηγεί ο κ. Αβραμίδης.
Σε Ευρωπαϊκό επίπεδο, η Ιταλική Αρχή Προστασίας Δεδομένων (Garante) διέταξε στις 31 Μαρτίου 2023, με άμεση ισχύ, τον προσωρινό περιορισμό της επεξεργασίας των δεδομένων των Ιταλών χρηστών κατά της OpenAI, σε συνέχεια παραβίασης δεδομένων που υπέστη στις 20 Μαρτίου, σχετικών με συνομιλίες χρηστών και πληροφορίες που αφορούσαν τους συνδρομητές της επί πληρωμή υπηρεσίας. Η Garante στήριξε την απόφασή της – την οποία ακολούθησε νέα απόφαση, στις 11 Απριλίου – στο γεγονός ότι οι χρήστες των οποίων τα δεδομένα συλλέγονται και τυγχάνουν επεξεργασίας από την OpenAI δεν είχαν ενημερωθεί, καθώς και στην απουσία νομιμοποιητικής βάσης, η οποία να δικαιολογεί τη μαζική συλλογή και αποθήκευση προσωπικών δεδομένων, με σκοπό την εκπαίδευση των αλγορίθμων. Μεταξύ των θεμάτων που ανέδειξαν αμφότερες οι αποφάσεις ήταν οι προκλήσεις στη διασφάλιση και την άσκηση των δικαιωμάτων των υποκειμένων, η ανάγκη ευαισθητοποίησης των χρηστών, αλλά και η λήψη μέτρων για ανήλικους χρήστες.
Εκτός από τον κίνδυνο απώλειας δεδομένων, τα συστήματα ΤΝ είναι ευάλωτα και στην πρακτική των ‘inference attacks’. Πρόκειται για μια τεχνική που στηρίζεται στην υποβολή πολύ προσεκτικά διατυπωμένων ερωτήσεων και τη λεπτομερή ανάλυση των απαντήσεων που δίδονται από τον αλγόριθμο, με στόχο να εξαχθούν συμπεράσματα σχετικά με τα δεδομένα που χρησιμοποιήθηκαν για την εκπαίδευση του μοντέλου. Για παράδειγμα, έστω ότι ένας οργανισμός στον κλάδο της υγείας αναπτύσσει μια εφαρμογή η οποία μπορεί να προβλέψει την πιθανότητα κάποιας πάθησης, με βάση στοιχεία όπως είναι τα συμπτώματα και τα δημογραφικά χαρακτηριστικά των προσώπων. Ο οργανισμός λαμβάνει όλα τα απαιτούμενα μέτρα για την αφαίρεση από τη βάση δεδομένων όλων των στοιχείων που μπορεί να οδηγήσουν σε ταυτοποίηση των φυσικών προσώπων. Ωστόσο, μέσω της πρακτικής των inference attacks, ο ‘επιτιθέμενος’ μπορεί να θέτει επαναλαμβανόμενες, διαφορετικά διατυπωμένες ερωτήσεις, παρατηρώντας τις απαντήσεις που δίνει κάθε φορά το σύστημα και να κατορθώσει να αντλήσει ευαίσθητες πληροφορίες για συγκεκριμένα πρόσωπα. Θα μπορούσε, λοιπόν, να διαπιστώσει ότι τα πρόσωπα που παρουσιάζουν συγκεκριμένα συμπτώματα, σε συνδυασμό με το εύρος ηλικίας και την τοποθεσία είναι πιο πιθανό να εμφανίσουν την εξεταζόμενη πάθηση, ακόμη και αν ο αλγόριθμος εκπαιδεύτηκε χωρίς να γνωρίζει τα στοιχεία ταυτότητας των συγκεκριμένων προσώπων.
Η Πράξη για την Τεχνητή Νοημοσύνη (AI Act)
Η νομοθεσία φαίνεται να έχει ‘ανεβάσει ταχύτητα’ προκειμένου να διαχειριστεί την επέλαση όχι μόνον της τεχνητής νοημοσύνης, αλλά και της τεχνολογίας εν γένει.
Η τεχνητή νοημοσύνη και η ρύθμισή της αποτελούν κορυφαία προτεραιότητα για την ΕΕ. Ήδη από το 2018 η Ευρωπαϊκή Επιτροπή εξέθεσε το όραμά της για την τεχνητή νοημοσύνη, το οποίο υποστηρίζει μια ‘δεοντολογική, ασφαλή και προηγμένη ΤΝ με τη σφραγίδα της Ευρώπης’.
Το όραμα της Επιτροπής βασίζεται σε τρεις πυλώνες: i) αύξηση των δημόσιων και ιδιωτικών επενδύσεων στον τομέα της ΤΝ με στόχο να δοθεί ώθηση στη διείσδυσή της, ii) προετοιμασία για τις κοινωνικοοικονομικές αλλαγές και iii) διασφάλιση κατάλληλου δεοντολογικού και νομικού πλαισίου με στόχο την ενίσχυση των ευρωπαϊκών αρχών.
Ακολούθησε το 2019 η Ομάδα εμπειρογνωμόνων υψηλού επιπέδου (ΟΕΥΕ) για την τεχνητή νοημοσύνη, η οποία παρουσίασε τις Κατευθυντήριες Γραμμές Δεοντολογίας για Αξιόπιστη Τεχνητή Νοημοσύνη, με στόχο την προαγωγή της αξιοπιστίας της τεχνητής νοημοσύνης και τη θέσπιση ενός πλαισίου για την επίτευξη αξιόπιστης ΤΝ. Σύμφωνα με την ΟΕΥΕ, η αξιόπιστη ΤΝ έχει τρεις συνιστώσες, οι οποίες θα πρέπει να πληρούνται σε ολόκληρο τον κύκλο ζωής του συστήματος: α) θα πρέπει να είναι σύννομη, ήτοι να τηρεί όλες τις εφαρμοστέες νομοθετικές και κανονιστικές διατάξεις, β) θα πρέπει να είναι δεοντολογική, ήτοι να διασφαλίζει τη συμμόρφωση με δεοντολογικές αρχές και αξίες και γ) θα πρέπει να είναι στιβαρή, τόσο από τεχνικής όσο και από κοινωνικής άποψης, διότι, ακόμη κι όταν υπάρχει καλή πρόθεση, τα συστήματα ΤΝ μπορούν να προκαλέσουν ακούσια βλάβη.
Το πλαίσιο αυτό έρχεται πλέον να επισφραγίσει η Πράξη για την Τεχνητή Νοημοσύνη (ΑΙ Act), η πρώτη, σε παγκόσμιο επίπεδο, πρόταση νομικού πλαισίου που ρυθμίζει συγκεκριμένες χρήσεις της ΤΝ.
Την Πέμπτη 11 Μαΐου, η επιτροπή Εσωτερικής Αγοράς και Προστασίας των Καταναλωτών (IMCO) και η επιτροπή Πολιτικών Ελευθεριών Δικαιοσύνης και Εσωτερικών Υποθέσεων (LIBE) ενέκριναν σχέδιο διαπραγματευτικής εντολής για τους πρώτους κανόνες για την Τεχνητή Νοημοσύνη με 84 ψήφους υπέρ, 7 κατά και 12 αποχές.
Προτού ξεκινήσουν οι διαπραγματεύσεις με το Συμβούλιο για το τελικό κείμενο της νομοθεσίας, η διαπραγματευτική εντολή πρέπει να εγκριθεί από την Ολομέλεια του Ευρωπαϊκού Κοινοβουλίου, με την ψηφοφορία να αναμένεται κατά τη σύνοδο της 12ης-15ης Ιουνίου.
Ο στόχος του νομοθετήματος, στο οποίο περιλαμβάνονται νέοι κανόνες διαφάνειας και διαχείρισης ρίσκου για τα συστήματα ΤΝ, είναι να διασφαλιστεί μια ανθρωποκεντρική και ηθική ανάπτυξη της τεχνητής νοημοσύνης στην Ευρώπη.
Οι προτεινόμενοι κανόνες ακολουθούν μια προσέγγιση βασιζόμενη στον κίνδυνο και εισάγουν υποχρεώσεις για παρόχους και χρήστες, ανάλογα με το επίπεδο ρίσκου που τίθεται από την εκάστοτε εφαρμογή τεχνητής νοημοσύνης.
Πιο συγκεκριμένα, συστήματα ΤΝ με απαράδεκτο επίπεδο κινδύνου για την ασφάλεια των ανθρώπων θα απαγορεύονται αυστηρά. Σε αυτά περιλαμβάνονται εφαρμογές οι οποίες χρησιμοποιούν τεχνικές σκόπιμης χειραγώγησης, εκμεταλλεύονται τις αδυναμίες των χρηστών ή χρησιμοποιούνται για social scoring (κατηγοριοποίηση και κατάταξη των ανθρώπων με βάση την κοινωνική τους συμπεριφορά, την κοινωνικοοικονομική τους κατάσταση και τα προσωπικά χαρακτηριστικά).
- Σύμφωνα και με την επίσημη ανακοίνωση του Ευρωπαϊκού Κοινοβουλίου, οι Ευρωβουλευτές διαμόρφωσαν το κείμενο της πρότασης κατά τέτοιον τρόπο, ώστε να καταγράψουν σε λίστα συγκεκριμένες απαγορευμένες περιπτώσεις συστημάτων ΤΝ που εισάγουν διακρίσεις:
- Συστήματα βιομετρικής κατηγοριοποίησης με βάση ευαίσθητα χαρακτηριστικά (π.χ. γένος, φυλή, εθνικότητα, θρησκεία, πολιτικό φρόνημα).
- Συστήματα εξ’ αποστάσεως βιομετρικής ταυτοποίησης σε πραγματικό χρόνο, σε δημόσιους χώρους.
- Συστήματα αναγνώρισης συναισθημάτων κατά την επιβολή του νόμου, στον χώρο εργασίας, στη διαχείριση των συνόρων και τα εκπαιδευτικά ιδρύματα.
- Συστήματα προληπτικής αστυνόμευσης (με βάση την κατάρτιση προφίλ, την τοποθεσία ή προηγούμενη εγκληματική συμπεριφορά).
Αδιάκριτη απόσπαση βιομετρικών δεδομένων από τα μέσα κοινωνικής δικτύωσης ή στιγμιότυπα από συστήματα CCTV, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων – πρακτική η οποία παραβιάζει τα ανθρώπινα δικαιώματα και το δικαίωμα στην ιδιωτικότητα.
Συστήματα τα οποία εκ των υστέρων ταυτοποιούν εξ’ αποστάσεως βιομετρικά δεδομένα, με τη μόνη εξαίρεση επιβολής του νόμου για τη δίωξη σοβαρών εγκλημάτων και μόνον κατόπιν άδειας δικαστικής αρχής.
Τεχνητή νοημοσύνη υψηλού κινδύνου
Οι Ευρωβουλευτές διηύρυναν την κατάταξη των περιοχών υψηλού κινδύνου προκειμένου να συμπεριλάβουν την βλάβη της υγείας των ανθρώπων, της ασφάλειας, των θεμελιωδών δικαιωμάτων ή του περιβάλλοντος. Προσέθεσαν δε στη λίστα συστήματα ΤΝ τα οποία επηρεάζουν ψηφοφόρους κατά τη διάρκεια πολιτικής καμπάνιας, καθώς και συστήματα συστάσεων που χρησιμοπούνται στις πλατφόρμες των μέσων κοινωνικής δικτύωσης (με περισσότερους από 45 εκατομμύρια χρήστες, όπως προβλέπει η Digital Services Act).
Τεχνητή νοημοσύνη γενικού σκοπού – μέτρα για τη διαφάνεια
Στο κείμενο περιελήφθησαν και υποχρεώσεις για τους παρόχους των μοντέλων βάσης (foundation models – ο όρος καθιερώθηκε από το Stanford Institute for Human-Centered Artificial Intelligence). Πρόκειται για μια νέα, ταχέως εξελισσόμενη τάση στο πεδίο της ΤΝ, όπου τα μοντέλα εκπαιδεύονται σε τεράστιο αριθμό μη κατηγοριοποιημένων δεδομένων και μπορούν να προσαρμοστούν σε πολλές εφαρμογές.
Οι πάροχοι των foundation models θα πρέπει να διασφαλίσουν πολύ ισχυρή προστασία των θεμελιωδών δικαιωμάτων, της υγείας, της ασφάλειας και του περιβάλλοντος, της δημοκρατίας και του κράτους δικαίου. Επιπλέον, θα πρέπει να αξιολογούν και να περιορίζουν το ρίσκο, να συμμορφώνονται με τις απαιτήσεις σχεδιασμού, πληροφόρησης και περιβαλλοντικές, καθώς και να κάνουν εγγραφή στη βάση δεδομένων της ΕΕ.
Μοντέλα βάσης όπως είναι το GPT θα πρέπει να συμμορφώνονται με επιπρόσθετες απαιτήσεις διαφάνειας, όπως είναι η γνωστοποίηση ότι το περιεχόμενο έχει δημιουργηθεί από σύστημα ΤΝ, ο σχεδιασμός του μοντέλου κατά τρόπο που να αποτρέπει τη δημιουργία παράνομου περιεχομένου, καθώς και τη δημοσίευση περιλήψεων των προστατευόμενων με πνευματική ιδιοκτησία δεδομένων που χρησιμοποιήθηκαν για την εκπαίδευση.
Επισημαίνεται ότι, καθώς ο στόχος της εν λόγω νομοθεσίας είναι να επιτύχει μια (λεπτή) ισορροπία ανάμεσα στην προώθηση της καινοτομίας και την προστασία των δικαιωμάτων των πολιτών, στο κείμενο της πρότασης έχουν προβλεφθεί και κάποιες εξαιρέσεις στις απαγορεύσεις, οι οποίες αφορούν ερευνητικές δραστηριότητες και στοιχεία τεχνητής νοημοσύνης που παρέχονται με άδειες ανοικτού κώδικα (open-source licenses).
Και τώρα, τι;
Καθώς περιμένουμε νεώτερα*, γεννάται το εύλογο ερώτημα αν η πολυαναμενόμενη ΑΙ Act θα μπορέσει να διαχειριστεί τις προκλήσεις της τεχνητής νοημοσύνης στην προστασία των προσωπικών δεδομένων και αν θα εισάγει τελικά ένα σύγχρονο, λειτουργικό πλαίσιο που οριοθετεί μεν μια αξιόπιστη ΤΝ, χωρίς ωστόσο να συνιστά τροχοπέδη στην καινοτομία και την ανάπτυξη.
Προς τη σωστή κατεύθυνση είναι, σύμφωνα με τον κ. Σιούφα, η προσέγγιση βάσει ρίσκου, όσο και οι αυξημένες απαιτήσεις διαφάνειας, οι οποίες μπορούν να καλύψουν ως ένα βαθμό τις προκλήσεις. Ανησυχία, ωστόσο, προκαλεί για τον κ. Σιούφα η επεξεργασία ευαίσθητων πληροφοριών υπό προϋποθέσεις χωρίς συγκατάθεση, αλλά και η δυνατότητα αιτιολογημένης επανακατηγοριοποίησης ενός συστήματος υψηλού κινδύνου σε χαμηλού κινδύνου.
Σύμφωνα με τον κ. Τάσση, η προτεινόμενη πράξη για την ΤΝ ευθυγραμμίζεται με τις αρχές του ΓΚΠΔ, αναγνωρίζει την ανάγκη αποτροπής των διακρίσεων και των προκαταλήψεων και υπογραμμίζει την απαίτηση για διαφάνεια στη λήψη αποφάσεων ΤΝ. Παράλληλα, προβλέπει απαιτήσεις για διαφάνεια και επεξηγηματικότητα (χωρίς όμως να παρέχει λεπτομερείς τεχνικές κατευθυντήριες γραμμές σχετικά με τον τρόπο επίτευξης της επεξηγηματικότητας) και επιμένει στην διατήρηση «ανθρώπινης εποπτείας». Αποτελεί κατά τον κ. Τάσση, πράγματι, ένα σημαντικό βήμα προς την αντιμετώπιση των προκλήσεων της ΤΝ στην προστασία των δεδομένων, όμως η αποτελεσματικότητά της θα εξαρτηθεί από την εφαρμογή, την επιβολή και τη συνεχή προσαρμογή της στις εξελισσόμενες τεχνολογίες ΤΝ και τους συναφείς κινδύνους.
Αναμένουμε τις εξελίξεις με ιδιαίτερο ενδιαφέρον!
«Η τεχνητή νοημοσύνη μπορεί να αποδειχθεί ιδιαίτερα βοηθητική για την προστασία των προσωπικών δεδομένων. Ιδιαίτερα χρήσιμη φαίνεται να αποβαίνει κατά την ανάδειξη των τρόπων καταπολέμησης της ηλεκτρονικής ή τραπεζικής απάτης, στην αντιμετώπιση ανθρώπινων λαθών που ενδεχομένως οδηγούν σε παραβίαση της προστασίας προσωπικών δεδομένων, στην ενίσχυση των συστημάτων ασφάλειας (εντοπισμός και καταπολέμηση κακόβουλων επιθέσεων κλπ.), μέσω και του περιορισμού του ανθρώπινου παράγοντα (κακόβουλες ή εκ παραδρομής ενέργειες), στην καταπολέμηση της πλαστοπροσωπίας κλπ.»
«Οι ευκαιρίες από την εφαρμογή της τεχνολογίας αυτής είναι κοινωνικά, επιστημονικά, καλλιτεχνικά κι επαγγελματικά καινοτόμες και επαναστατικές (αύξηση παραγωγικότητας, επιτάχυνση επιστημονικών ερευνών κλπ.).
Η «κούρσα» για την ανάπτυξη και κυριαρχία της στα πράγματα εύλογα προκαλεί ανησυχία ως προς την ισχύ και τα θεμιτά όρια χρήσης της. Μόνο μετά από μια ειλικρινή διαδικασία αυτορρύθμισης στο πλαίσιο της νομοθεσίας (π.χ. EU AI Act) και διαλόγου με τις ρυθμιστικές αρχές, θα επέλθει η αναγκαία ισορροπία.»
«Οι μεγαλύτερες προκλήσεις της τεχνητής νοημοσύνης ως προς τα προσωπικά δεδομένα αποτελούν α. η σωστή σήμανση των δεδομένων κατά την εισαγωγή τους ως training data, έτσι ώστε να αποφεύγονται οι διακρίσεις στα output data, β. η νομιμότητα της χρήσης προσωπικών δεδομένων είτε στα training data είτε στα Input data, γ. η διαφάνεια, τόσο ως προς τους σκοπούς της επεξεργασίας αλλά και για την επεξεργασία για περαιτέρω σκοπούς, δ. η επεξήγηση της λογικής πίσω από την τυχόν αυτοματοποιημένη λήψη αποφάσεων και την κατάρτιση προφίλ καθώς και ε. η άσκηση των δικαιωμάτων των υποκειμένων, λόγω της πολυπλοκότητας της τεχνολογίας.»
«Οι μεγαλύτερες προκλήσεις της ΤΝ στην προστασία δεδομένων περιστρέφονται γύρω από την προστασία της ιδιωτικής ζωής, τη διαφάνεια και τη λογοδοσία. Διότι είναι εμφανές ότι τα συστήματα ΤΝ συχνά απαιτούν πρόσβαση σε μεγάλες ποσότητες δεδομένων, συμπεριλαμβανομένων προσωπικών και ευαίσθητων πληροφοριών, μία ανάγκη που συγκρούεται με τις βασικές αρχές της ελαχιστοποίησης και της αναγκαιότητας στην επεξεργασία δεδομένων. Επίσης, οι αλγόριθμοι ΤΝ μπορεί να ενισχύσουν ακούσια τις υπάρχουσες προκαταλήψεις που υπάρχουν στα δεδομένα στα οποία εκπαιδεύονται και με τα οποία τροφοδοτούνται, οδηγώντας σε αυτοματοποιημένα αποτελέσματα που εισάγουν διακρίσεις και σε άδικη μεταχείριση ορισμένων ατόμων ή ομάδων. Πολλά μοντέλα ΤΝ, όπως τα νευρωνικά δίκτυα βαθιάς μάθησης (deep learning), μπορεί να είναι πολύπλοκα και δύσκολα ερμηνεύσιμα, οδηγώντας αφενός σε έλλειψη διαφάνειας και επεξηγηματικότητας σχετικά με τον τρόπο λήψης των αποφάσεων και, συνεπώς, περιορισμό της δυνατότητας αμφισβήτησης αυτών των αποτελεσμάτων και, αφετέρου, δυσκολίας να διακριβωθεί ποιος είναι υπεύθυνος για τις αποφάσεις ή τις ενέργειες που λαμβάνονται (έλλειψη επαρκούς λογοδοσίας). Τέλος, η ΤΝ βασίζεται σε σύνολα δεδομένων υψηλής ποιότητας και ποικιλίας, οπότε είναι απαραίτητη η διασφάλιση πρακτικών αποτελεσματικής διακυβέρνησης δεδομένων, συμπεριλαμβανομένης της συλλογής, αποθήκευσης και κοινής χρήσης δεδομένων και της αποτροπής μη εξουσιοδοτημένης πρόσβασης.»
Στις 31 Μαρτίου, η Ιταλική Αρχή Προστασίας Δεδομένων (Garante) απαγόρευσε τη λειτουργία της εφαρμογής ChatGPT της OpenAI και την 1η Απριλίου 2023, η πρόσβαση στο δημοφιλές εργαλείο απενεργοποιήθηκε για τους Ιταλούς χρήστες. Το ChatGPT ήταν και πάλι προσβάσιμο στο ιταλικό κοινό στις 28 Απριλίου, μετά από συνάντηση της OpenAI με την Garante για τη λήψη συγκεκριμένων μέτρων αποκατάστασης από την OpenAI. Ειδικότερα, σύμφωνα με την απόφαση της Garante:
Η OpenAI πρέπει να δημοσιεύσει στον ιστότοπό της μια πολιτική απορρήτου τόσο για τους χρήστες όσο και για τους μη χρήστες της, των οποίων τα δεδομένα έχουν συλλεγεί και υποστεί επεξεργασία με σκοπό την εκπαίδευση αλγορίθμων. Η εν λόγω πολιτική πρέπει να περιλαμβάνει πληροφορίες σχετικά με τις ρυθμίσεις και τη λογική της επεξεργασίας, τα δικαιώματα των χρηστών σύμφωνα και κάθε άλλη πληροφορία που απαιτεί ο GDPR.
Επιπλέον, η εκτέλεση σύμβασης (άρθρο 6 §1 (β) ΓΚΠΔ) δεν αποτελεί βιώσιμη νομική βάση για την εκπαίδευση του αλγορίθμου της τεχνητής νοημοσύνης – η συγκατάθεση του υποκειμένου των δεδομένων και το έννομο συμφέρον (άρθρο 6 §1 (α) και (στ) ΓΚΠΔ) είναι καταλληλότερες νομικές βάσεις.
Η Garante αναγνωρίζει, επίσης, τη δυσκολία συμμόρφωσης με ορισμένα δικαιώματα των υποκειμένων στο πλαίσιο της ανάπτυξης ενός μοντέλου ΤΝ, όπως είναι το δικαίωμα διόρθωσης (όπου είναι τεχνικά ανέφικτο να διορθωθούν ορισμένα ανακριβή δεδομένα). Στην περίπτωση αυτή, η διαγραφή δεδομένων θα πρέπει να θεωρείται βιώσιμη εναλλακτική λύση της διόρθωσης.
Τέλος, η OpenAI έλαβε προθεσμία μέχρι την 31η Μαΐου 2023 προκειμένου να υποβάλει στην Garante σχέδιο συστήματος επαλήθευσης της ηλικίας για το φιλτράρισμα των χρηστών κάτω των 13 ετών, καθώς και αυτών μεταξύ 13 και 18 ετών, για τους οποίους δεν έχει δοθεί συγκατάθεση από τους ασκούντες τη γονική μέριμνα. Η OpenAI πρέπει να υιοθετήσει το εν λόγω σύστημα το αργότερο έως τις 30 Σεπτεμβρίου 2023.
Η ιταλική ΑΠΔΠΧ υπήρξε η πρώτη μεταξύ των άλλων της ΕΕ στη διερεύνηση της δημιουργικής ΤΝ και συνεχίζει να υιοθετεί προληπτική προσέγγιση. Στις 24 Μαΐου 2023, μέλος της ιταλικής ΑΠΔ ανακοίνωσε ότι θα δημιουργηθεί στην Ιταλία συμβουλευτική επιτροπή ΤΝ, ως 3μελές εσωτερικό όργανο, με αντικείμενο τη διερεύνηση της επεξεργασίας δεδομένων προσωπικού χαρακτήρα στο πλαίσιο εργαλείων ΤΝ.
«Η προτεινόμενη Πράξη για την Τεχνητή Νοημοσύνη καλύπτει σε έναν βαθμό τις προκλήσεις που υπάρχουν, όπως π.χ. με τις αυξημένες απαιτήσεις διαφάνειας. Η προσέγγιση βάσει ρίσκου (risk-based approach), που ακολουθεί τόσο η Ευρώπη όσο και η Αμερική, είναι προς τη σωστή κατεύθυνση. Προβληματική χαρακτηρίζεται, ωστόσο, τόσο
η δυνατότητα επεξεργασίας προσωπικών δεδομένων ειδικών κατηγοριών, πέραν των περιπτώσεων του άρθρου 9.2 του ΓΚΠΔ, για σκοπούς της διασφάλισης της παρακολούθησης, ανίχνευσης και διόρθωσης σε σχέση με τα συστήματα ΤΝ υψηλού κινδύνου, όσο και η δυνατότητα αιτιολογημένης επανακατηγοριοποίησης ενός συστήματος υψηλού κινδύνο σε χαμηλού κινδύνου.»
«Η προτεινόμενη πράξη για την ΤΝ της Ευρωπαϊκής Επιτροπής αποσκοπεί στην αντιμετώπιση αυτών των προκλήσεων εισάγοντας, ιδίως, ειδικές απαιτήσεις για εφαρμογές ΤΝ υψηλού κινδύνου. Ευθυγραμμίζεται με τις αρχές του Γενικού Κανονισμού και προτείνει πρόσθετες απαιτήσεις για συστήματα ΤΝ υψηλού κινδύνου που επεξεργάζονται δεδομένα προσωπικού χαρακτήρα. Αναγνωρίζει την ανάγκη αποτροπής των διακρίσεων και των προκαταλήψεων και υπογραμμίζει την απαίτηση για διαφάνεια στη λήψη αποφάσεων ΤΝ. Παράλληλα, προβλέπει απαιτήσεις για διαφάνεια και επεξηγηματικότητα (χωρίς όμως να παρέχει λεπτομερείς τεχνικές κατευθυντήριες γραμμές σχετικά με τον τρόπο επίτευξης της επεξηγηματικότητας) και επιμένει στη διατήρηση «ανθρώπινης εποπτείας». Αποτελεί, πράγματι, ένα σημαντικό βήμα προς την αντιμετώπιση των προκλήσεων της ΤΝ στην προστασία των δεδομένων, όμως η αποτελεσματικότητά της θα εξαρτηθεί από την εφαρμογή, την επιβολή και τη συνεχή προσαρμογή της στις εξελισσόμενες τεχνολογίες ΤΝ και τους συναφείς κινδύνους.»
Εκτός από την Πράξη για την Τεχνητή Νοημοσύνη, αξίζει να επισημανθούν και τα κάτωθι νομοθετικά κείμενα, τα οποία συμπληρώνουν το πλαίσιο προστασίας των προσωπικών δεδομένων και της ιδιωτικότητας.
Πράξη για τα Δεδομένα – Data Act:
Στις 23 Μαρτίου 2023, η Ευρωπαϊκή Επιτροπή υιοθέτησε την πρόταση Κανονισμού για εναρμονισμένους κανόνες σχετικά με τη δίκαιη πρόσβαση σε δεδομένα και τη δίκαιη χρήση τους (Data Act). Η πρόταση, το αρχικό κείμενο της οποίας είχε υποβληθεί τον Φεβρουάριο του 2022, αποσκοπεί τη διασφάλιση της δικαιοσύνης στο ψηφιακό περιβάλλον, την προώθηση μιας ανταγωνιστικής αγοράς δεδομένων, την προσφορά νέων ευκαιριών για καινοτομία που βασίζεται στα δεδομένα και το να καταστήσει τα δεδομένα πιο προσβάσιμα για όλους και όλες.
Ανάμεσα στους στόχους της Πράξης για τα Δεδομένα αναφέρονται ειδικότερα οι:
- Διευκόλυνση της πρόσβασης σε δεδομένα και της χρήσης τους από τους καταναλωτές και τις επιχειρήσεις, με παράλληλη διατήρηση των κινήτρων για επενδύσεις σε τρόπους δημιουργίας αξίας μέσω δεδομένων.
- Πρόβλεψη της χρήσης από τους φορείς του δημόσιου τομέα και τα θεσμικά και λοιπά όργανα ή τους οργανισμούς της Ένωσης δεδομένων που βρίσκονται στην κατοχή επιχειρήσεων σε ορισμένες περιπτώσεις όπου υπάρχει εξαιρετική ανάγκη σε δεδομένα.
- Διευκόλυνση της αλλαγής υπηρεσιών υπολογιστικού νέφους και παρυφών.
- Θέση σε εφαρμογή εγγυήσεων κατά της παράνομης διαβίβασης δεδομένων χωρίς κοινοποίηση από τους παρόχους υπηρεσιών υπολογιστικού νέφους.
- Πρόβλεψη της ανάπτυξης προτύπων διαλειτουργικότητας για δεδομένα που θα επαναχρησιμοποιούνται μεταξύ τομέων.
Ν. 4961/2022 για τις αναδυόμενες τεχνολογίες πληροφορικής και επικοινωνιών, ενίσχυση της ψηφιακής διακυβέρνησης
Στα ελληνικά δεδομένα, όπως μας πληροφορεί η κ. Τσουρού, ο ν. 4961/2022 εισήγαγε το νέο εθνικό νομοθετικό πλαίσιο για αναδυόμενες τεχνολογίες πληροφορικής και επικοινωνιών εξειδικεύοντας διατάξεις, που αφορούν σε θέματα με ιδιάζουσα για την αγορά σημασία, όπως η τεχνητή νοημοσύνη και το blockchain.
Ο νόμος δημοσιεύθηκε τον Ιούλιο του 2022 και, έχοντας ως απώτερο στόχο την εδραίωση του ψηφιακού μετασχηματισμού στην Ελλάδα, θεσπίζει συγκεκριμένες υποχρεώσεις τόσο σε πρόσωπα και φορείς του ιδιωτικού τομέα, όσο και σε φορείς του δημοσίου, οι οποίοι χρησιμοποιούν προηγμένες τεχνολογίες.
Σημαντικές ρυθμίσεις για την ιδιωτικότητα περιλαμβά-νονται και στις Digital Markets Act (DMA) και Digital Services Act (DSA), οι οποίες δημιουργούν ένα κοινό και σύγχρονο νομικό πλαίσιο που θα ανταποκρίνεται σε όλες τις νέες και επερχόμενες προκλήσεις της ψηφιακής εποχής. Ειδικότερα, η DMA στοχεύει στη διασφάλιση ίσων όρων ανταγωνισμού για όλες τις ψηφιακές πλατφόρμες/εταιρείες, ανεξαρτήτως μεγέθους, ενώ η DSA, όπως ση-μειώνει η κ. Τσουρού, προσφέρει στους χρήστες τη δυνα-τότητα μεγαλύτερου ελέγχου ως προς το περιεχόμενο όσων παρακολουθούν στο διαδίκτυο, συμβάλλει στην προστασία των χρηστών από τυχόν επιβλαβές και παράνομο περιεχόμενο και εισάγει ακριβέστερους και καλύτερους κανόνες για την προστασία της ελευθερίας του λόγου.