AI στην ελληνική αγορά: Από τον ενθουσιασμό στον νομικό ρεαλισμό – Η ανάγκη για στρατηγική συμμόρφωση

Στέργιος Κωνσταντίνου, Lawyer, Advanced LLM CIPP/E, CIPM, FIP

Η τεχνητή νοημοσύνη δεν συνιστά απλώς εργαλείο καινοτομίας, αλλά ρυθμιστική πρόκληση. Οι επιχειρήσεις που επενδύουν σε ευρεία στρατηγική συμμόρφωσης κερδίζουν την εμπιστοσύνη των πελατών τους, μειώνουν το κανονιστικό ρίσκο και αποκτούν μακροπρόθεσμο ανταγωνιστικό πλεονέκτημα.

Ηταχεία διάδοση των εργαλείων τεχνητής νοημοσύνης («ΤΝ» ή «AI») στην ελληνική αγορά – από έξυπνα chatbots έως εφαρμογές που δημιουργούν εικόνες και βίντεο με ένα κλικ – αναδεικνύει την ανάγκη προσαρμογής των επιχειρήσεων στο περίπλοκο και διαρκώς εξελισσόμενο νομικό πλαίσιο. Ενώ τα μοντέλα αυτά παρέχουν αδιαμφισβήτητα οφέλη σε επίπεδο αποδοτικότητας, εξυπηρέτησης πελατών και καινοτομίας, η ενσωμάτωσή τους ελλείψει μίας πλήρους στρατηγικής συμμόρφωσης εγκυμονεί σοβαρούς κινδύνους, τόσο νομικούς όσο και επιχειρησιακούς.

Το πρώτο σημείο που χρήζει προσοχής είναι η προστασία των προσωπικών δεδομένων. Η χρήση generative AI συνεπάγεται, συχνά χωρίς πλήρη κατανόηση, επεξεργασία προσωπικών δεδομένων, χωρίς όμως πολλές επιχειρήσεις να έχουν αξιολογήσει επαρκώς το πού και πώς αποθηκεύονται, ποιος έχει πρόσβαση σε αυτά ή εάν η επεξεργασία είναι απολύτως αναγκαία. Η συμμόρφωση με τον Κανονισμό (ΕΕ) 2016/679 (GDPR) προϋποθέτει, μεταξύ άλλων, την τήρηση των αρχών επεξεργασίας καθώς και τις αντίστοιχες διατάξεις που αποκρυσταλλώνουν τις αρχές αυτές. Χαρακτηριστικά παραδείγματα αποτελούν η διαφάνεια σε σχέση με τις διενεργούμενες επεξεργασίες, η διενέργεια Εκτίμησης Αντικτύπου Προστασίας Δεδομένων (DPIA) όπου απαιτείται και ο ορισμός ενός Υπεύθυνου Προστασίας Δεδομένων (DPO) με ουσιαστικό ρόλο.

Ταυτόχρονα, η επικείμενη εφαρμογή της «AI Act» προσθέτει επιπλέον επίπεδα ευθύνης για τα «υψηλού κινδύνου» μοντέλα AI, καθιστώντας υποχρεωτική τη συστηματική αξιολόγηση, τεκμηρίωση και παρακολούθηση των κινδύνων από τις επιχειρήσεις. Ειδικότερα, ακόμα και η χρήση AI μοντέλων από τρίτους (όπως SaaS πλατφόρμες) δεν απαλλάσσει τον υπεύθυνο επεξεργασίας από την ως άνω νομική του ευθύνη. Επομένως, είναι ζωτικής σημασίας η σύναψη σαφών και επικαιροποιημένων συμβάσεων με παρόχους τεχνολογίας, που να ορίζουν ρητά υποχρεώσεις, περιορισμούς και ευθύνες σε σχέση με τα δεδομένα και τη χρήση των μοντέλων AI.

Ένας από τους μεγαλύτερους κινδύνους σήμερα είναι η υιοθέτηση της τεχνολογίας AI χωρίς συνολική στρατηγική. Πολλές επιχειρήσεις, υπό την πίεση για ταχεία προσαρμογή τους στις τελευταίες εξελίξεις, υιοθετούν μοντέλα AI χωρίς οποιονδήποτε νομικό και οργανωτικό έλεγχο, αυξάνοντας την πιθανότητα παραβάσεων, κυρώσεων αλλά και απώλειας της εμπιστοσύνης των πελατών τους. Η έλλειψη ενός συνεκτικού σχεδίου AI Governance, που να ορίζει τα σαφή βήματα από την επιλογή και αξιολόγηση των εργαλείων μέχρι την εκπαίδευση των εργαζομένων και την εσωτερική πολιτική χρήσης, αποδεικνύεται σημαντική παράλειψη.

Οι επιχειρήσεις συνιστάται να προχωρήσουν άμεσα στη δημιουργία ενός AI inventory, χαρτογραφώντας τα συστήματα που χρησιμοποιούνται, καθώς και τους αντίστοιχους κινδύνους, διενεργώντας DPIAs/FRIAs και εφαρμόζοντας την αρχή του privacy και ethics by design. Ο ορισμός και η ενεργή εμπλοκή ενός αρμόδιου λειτουργού για ζητήματα AI (AI Officer), η συμμετοχή του DPO και των νομικών και τεχνικών συμβούλων, αλλά και η συστηματική εκπαίδευση του προσωπικού συνθέτουν ένα απαραίτητο πλαίσιο που διασφαλίζει τη συμμόρφωση και, ταυτόχρονα, ενισχύει την ανταγωνιστικότητα της επιχείρησης.

Η στρατηγική προσέγγιση της συμμόρφωσης δεν είναι απλώς αναγκαία για την αποφυγή κυρώσεων. Είναι ευκαιρία για τις ελληνικές επιχειρήσεις να κερδίσουν εμπιστοσύνη, να διαμορφώσουν πρότυπα υπεύθυνης χρήσης της τεχνητής νοημοσύνης και να ξεχωρίσουν ανάμεσα στον ανταγωνισμό. Σε ένα περιβάλλον όπου η TN διαμορφώνει δυναμικά νέες ευκαιρίες αλλά και προκλήσεις, η προσαρμογή δεν είναι πολυτέλεια, αλλά στρατηγική επιταγή. Τώρα είναι η στιγμή για τις ελληνικές επιχειρήσεις να ορίσουν το παράδειγμα!