Από τα έξυπνα chatbots μέχρι τις εφαρμογές που δημιουργούν εικόνες και βίντεο με ένα κλικ, η τεχνητή νοημοσύνη δεν αποτελεί πια πρόβλεψη, ή πολύ μακρινό σενάριο που κάποτε θα βλέπαμε σε blockbuster. Όσοι έχουν παρακολουθήσει τη σειρά Black Mirror θα συμφωνήσουν πως πλέον οι ομοιότητες με την πραγματικότητα υπερβαίνουν τις διαφορές. Η τεχνητή νοημοσύνη δεν αποτελεί πια σενάριο επιστημονικής φαντασίας, αλλά σταδιακά μετατρέπεται σε υποδομή του σύγχρονου βίου – τόσο επαγγελματικού όσο και προσωπικού.
Η τεχνητή νοημοσύνη προσφέρει ήδη σημαντικά πλεονεκτήματα για τις επιχειρήσεις (συμπεριλαμβανομένων φυσικά των νομικών υπηρεσιών): από την αυτοματοποίηση επαναλαμβανόμενων εργασιών και τη βελτίωση της λήψης αποφάσεων, μέχρι τη δημιουργία καινοτόμων προϊόντων και υπηρεσιών. Ωστόσο, η υιοθέτηση αυτών των τεχνολογιών δεν είναι χωρίς ρίσκο. Ζητήματα όπως η προστασία προσωπικών δεδομένων, η διαφάνεια των αλγορίθμων, η πνευματική ιδιοκτησία και η ενδεχόμενη μεροληψία των συστημάτων ΤΝ δημιουργούν ένα πολύπλοκο νομικό-κανονιστικό περιβάλλον στο οποίο οι επιχειρήσεις καλούνται να πλοηγηθούν – όχι πάντα «αναίμακτα».
Η AI στην πράξη: από τον… ενθουσιασμό στον έλεγχο
- Υπόθεση DeepSeek
Η DeepSeek είναι μια κινεζική νεοφυής επιχείρηση τεχνητής νοημοσύνης, η οποία ιδρύθηκε το 2023 από τον συνιδρυτή του hedge fund “High-Flyer”, Liang Wenfeng, και η οποία χρησιμοποιεί αλγόριθμους τεχνητής νοημοσύνης για να προβλέπει τις διακυμάνσεις της αγοράς. H start-up υποστηρίζει ότι το λογισμικό της δεν έχει τίποτα να «ζηλέψει» σε σύγκριση με αυτά της Google και της OpenAI, αντιθέτως έχει σημαντικά χαμηλότερο κόστος και ανοιχτή πρόσβαση στις τεχνικές λεπτομέρειες της λειτουργίας του. Μάλιστα οι αναλυτές της DeepSeek αναφέρουν πως έχουν αναπτύξει τεχνικές για να καταστήσουν την εκπαίδευση του μοντέλου πολύ πιο αποτελεσματική, σε σχέση με αυτό των αμερικανικών κολοσσών-ανταγωνιστών της.
Κατά την κυκλοφορία του στις αρχές του έτους, το νέο κινεζικό chatbot προκάλεσε, όπως ήταν αναμενόμενο, τεράστιο ενδιαφέρον στην παγκόσμια αγορά, με την εφαρμογή να εκτοξεύεται στο Appstore, ξεπερνώντας αυτήν της OpenAI.
Πέρα από την εμπορική της επιτυχία, αλλά και τις έντονες συζητήσεις για τις γεωπολιτικές προεκτάσεις της ανάπτυξης μιας τέτοιας εφαρμογής στην Κίνα, η DeepSeek βρέθηκε στο επίκεντρο του ενδιαφέροντος λόγω της Πολιτικής Απορρήτου της εφαρμογής, η οποία δηλώνει ότι η ευρύτατη «γκάμα» προσωπικών δεδομένων που επεξεργάζεται (συμπεριλαμβανομένων των συνομιλιών του εκάστοτε χρήστη και των τεχνικών στοιχείων συσκευών του ή της σύνδεσης στο διαδίκτυο), φυλάσσεται σε διακομιστές στην Κίνα. Υποστηρίζεται, μάλιστα, ότι τα δεδομένα ενδέχεται να είναι προσβάσιμα από την κυβέρνηση της Κίνας, η οποία διατηρεί εξουσίες παρέμβασης στις επιχειρήσεις.
Η ελληνική Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα ανακοίνωσε τον Φεβρουάριο του 2025 ότι κίνησε διαδικασία αυτεπάγγελτης έρευνας σε σχέση με τη νομιμότητα, βάσει του Γενικού Κανονισμού Προστασίας Δεδομένων, της δημοφιλούς εφαρμογής, η οποία είναι διαθέσιμη στην Ελλάδα. Από την άλλη, η ιταλική Αρχή (Garante) υπήρξε η πρώτη εποπτική αρχή που ζήτησε περισσότερες πληροφορίες σε σχέση με την εφαρμογή, ενώ απαγόρευσε τη λειτουργία του DeepSeek στην Ιταλία ήδη από τον Ιανουάριο. Πριν από μερικές ημέρες, η γερμανική Αρχή Προστασίας ζήτησε από την Google και την Apple να αφαιρέσουν το DeepSeek από τα καταστήματα εφαρμογών τους, λόγω της παράνομης, κατά την Επίτροπο Meike Kamp, διαβίβασης προσωπικών δεδομένων των χρηστών στην Κίνα.
Η έκβαση της υπόθεσης DeepSeek ενδέχεται να αποτελέσει προηγούμενο για τον τρόπο με τον οποίο η Ε.Ε. θα χειρίζεται εφαρμογές AI που εισάγονται από τρίτες χώρες και δη από κράτη με διαφορετικά πρότυπα διακυβέρνησης και προστασίας της ιδιωτικότητας.
- Εικονικές συνομιλίες, πραγματικά δεδομένα
Πρόστιμο 5,6 εκατ. ευρώ στην Luka Inc., την εταιρεία ανάπτυξης του chatbot “Replika” επέβαλε η Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα της Ιταλίας (Garante), για παραβίαση των προσωπικών δεδομένων των χρηστών. Μάλιστα, η Garante είχε διατάξει την Luka Inc. να διακόψει τη λειτουργία της στην Ιταλία ήδη από το 2023, επικαλούμενη κινδύνους για τα παιδιά.
Η εταιρεία ιδρύθηκε στο Σαν Φρανσίσκο το 2017 και έχει δημιουργήσει avatars, εικονικούς φίλους που συνομιλούν με τους χρήστες και – σύμφωνα με τα όσα ισχυρίζονται στη διαφήμιση της εφαρμογής – ενισχύουν την ψυχολογική τους ευεξία και τη συναισθηματική σύνδεση. Το chatbot αξιοποιεί μεγάλα γλωσσικά μοντέλα (Large Language Models – LLMs) και βελτιώνει την απόδοσή του μέσα από τη συνεχή αλληλεπίδραση με τους χρήστες και την επεξεργασία των προσωπικών τους δεδομένων, συμπεριλαμβανομένων πληροφοριών όπως το περιεχόμενο της επικοινωνίας, οι φωνητικές εκφράσεις και, κατά περίπτωση, πληροφορίες σχετικά με τη νοητική κατάσταση ή τη συναισθηματική κατάσταση του χρήστη. Αυτό χρήζει ιδιαίτερης προσοχής, καθώς πολλά από τα δεδομένα αυτά εμπίπτουν στις ειδικές κατηγορίες («ευαίσθητα») και επιτρέπουν την εξαγωγή συμπερασμάτων σχετικά με την προσωπικότητα, τις διαθέσεις και τις συνήθειες των ενδιαφερόμενων ατόμων.
Στο επίκεντρο της απόφασης της Garante βρίσκονται τρεις σημαντικές παραβάσεις:
– Η έλλειψη νομιμοποιητικής βάσης επεξεργασίας, αφού η Luka Inc. απέτυχε να θεμελιώσει επαρκή βάση για την περαιτέρω επεξεργασία των δεδομένων στο πλαίσιο της εκπαίδευσης του γλωσσικού μοντέλου.
– Η ανεπαρκής ενημέρωση των χρηστών, λόγω του ότι η Πολιτική Απορρήτου ήταν διαθέσιμη μόνον στα αγγλικά (και όχι στα ιταλικά), αλλά και διότι έλειπαν από αυτήν πληροφορίες σχετικά με τη διάρκεια της επεξεργασίας, τη διαβίβαση δεδομένων σε τρίτες χώρες και την αυτοματοποιημένη λήψη αποφάσεων.
– Η έλλειψη προστασίας των ανηλίκων, καθώς η εταιρεία δεν χρησιμοποιούσε κατάλληλο σύστημα πιστοποίησης της ηλικίας των χρηστών, με αποτέλεσμα η εφαρμογή να χρησιμοποιείται ανεμπόδιστα από ανήλικους, ακόμα και όταν αυτοί δήλωναν ανοιχτά ότι είναι κάτω των 18 ετών.
Η ΤΝ αποτελεί μοχλό στρατηγικού μετασχηματισμού για επιχειρήσεις που θέλουν να παραμείνουν ανταγωνιστικές σε ένα διαρκώς μεταβαλλόμενο περιβάλλον
- Πρόστιμο στην OpenAI από την ιταλική Garante
Ήδη από την κυκλοφορία του το 2022, το ChatGPT έχει απασχολήσει επανειλημμένως τις αρμόδιες εποπτικές αρχές και δη την -ιδιαιτέρως δραστήρια– Garante, η οποία τον Απρίλιο του 2023 είχε απαγορεύσει (προσωρινά) τη χρήση της εφαρμογής στην Ιταλία, επικαλούμενη την παραβίαση της ιδιωτικότητας.
Τον Δεκέμβριο του 2024, η ιταλική αρχή επέβαλε πρόστιμο 15,58 εκατ. δολαρίων στην OpenAI, δημιουργό του ChatGPT, έχοντας ολοκληρώσει έναν διεξοδικό έλεγχο στον τρόπο με τον οποίο η εταιρεία επεξεργαζόταν τα προσωπικά δεδομένα των χρηστών της εφαρμογής. Πιο συγκεκριμένα, η ιταλική Αρχή διαπίστωσε ότι η OpenAI χρησιμοποιούσε τα προσωπικά δεδομένα των χρηστών για να εκπαιδεύσει τον αλγόριθμο, χωρίς επαρκή νομιμοποιητική βάση επεξεργασίας και κατά παράβαση της αρχής της διαφάνειας και της υποχρέωσης ενημέρωσης των υποκειμένων των δεδομένων. Επιπλέον, κατά τον έλεγχο προέκυψε ότι η εταιρεία δεν τηρούσε σύστημα επιβεβαίωσης της ηλικίας των χρηστών, προκειμένου να προλαμβάνει την έκθεση ατόμων κάτω των 13 ετών, σε παραγόμενο από την ΤΝ περιεχόμενο, το οποίο είναι ακατάλληλο για τα άτομα αυτά.
Η Garante επέβαλε, επίσης, στην OpenAI την υλοποίηση εξάμηνης καμπάνιας για την ενημέρωση του κοινού σχετικά με τον τρόπο λειτουργίας του ChatGPT, ιδιαίτερα σε ό,τι αφορά τη χρήση και επεξεργασία προσωπικών δεδομένων των χρηστών και μη της εφαρμογής.
- Συμμόρφωση ή ανάπτυξη;
Σύμφωνα με την πολύ πρόσφατη μελέτη που εκπόνησε, σε παγκόσμιο επίπεδο, το Business Value Institute της ΙΒΜ, οι ερωτηθέντες CEO επιβεβαιώνουν τη δέσμευσή τους για ενσωμάτωση λύσεων ΤΝ σε ολόκληρο τον οργανισμό τους, παρά τις προκλήσεις που αντιμετωπίζουν από την ενσωμάτωση την επιταχυνόμενη υιοθέτηση των εργαλείων τεχνολογίας. Στον πρόλογο της μελέτης, ο Vice Chairman της IBM, Gary Cohn, γράφει: “Καθώς η υιοθέτηση της τεχνητής νοημοσύνης επιταχύνεται, δημιουργώντας μεγαλύτερη αποδοτικότητα και αύξηση της παραγωγικότητας, το τελικό όφελος θα προκύψει μόνο για τους CEOs που έχουν το θάρρος να αγκαλιάσουν τον κίνδυνο ως ευκαιρία.
Δηλαδή, να εστιάσουν σε όσα μπορούν να ελέγξουν, ειδικά όταν υπάρχουν τόσα που δεν μπορούν. Όταν το επιχειρηματικό περιβάλλον είναι αβέβαιο, η αξιοποίηση της τεχνητής νοημοσύνης και των δεδομένων του οργανισμού για τον εντοπισμό των σημείων όπου υπάρχει πλεονέκτημα, αποτελεί ανταγωνιστικό πλεονέκτημα. Σε αυτό το στάδιο, οι ηγέτες που δεν αξιοποιούν την τεχνητή νοημοσύνη και τα δικά τους δεδομένα για να προχωρήσουν μπροστά, λαμβάνουν συνειδητά την επιχειρηματική απόφαση να μην ανταγωνιστούν.”
Οι επιχειρήσεις καλούνται να συνθέσουν τον ενθουσιασμό της καινοτομίας με την ωριμότητα της συμμόρφωσης – όχι για να επιβιώσουν, αλλά για να ηγηθούν
Αξίζει, βέβαια, να επισημανθεί ότι η ίδια η ΙΒΜ έχει υιοθετήσει από το 2018 μια προσέγγιση για τη δεοντολογία της ΤΝ, η οποία συνδυάζει μια δομή διακυβέρνησης (το Συμβούλιο Δεοντολογίας ΤΝ) με ένα πλαίσιο αρχών για αξιόπιστη ΤΝ.
Το αυτό ισχύει και για έναν ακόμη τεχνολογικό κολοσσό, την Μicrosoft, και τη δική της δέσμευση για υπεύθυνη ΤΝ, η οποία θεμελιώνεται σε έξι βασικές αρχές: fairness, reliability and safety, privacy and security, transparency, accountability, inclusiveness.
Ποια είναι, λοιπόν, η απάντηση στο ερώτημα «συμμόρφωση ή ανάπτυξη»;
Η τεχνητή νοημοσύνη δεν είναι απλώς ένα «λαμπερό» εργαλείο. Αποτελεί μοχλό στρατηγικού μετασχηματισμού για επιχειρήσεις που θέλουν να παραμείνουν ανταγωνιστικές σε ένα διαρκώς μεταβαλλόμενο περιβάλλον. Όμως όσο τα επιχειρηματικά μοντέλα γίνονται πιο «έξυπνα», τόσο αυξάνεται και η πολυπλοκότητα των νομικών και κανονιστικών απαιτήσεων. Όπως αναφέρει και ο Πέτρος Φραγκίσκος, Partner της FNG, «η ανάγκη για συμμόρφωση, αξιολόγηση κινδύνων και ενίσχυση της εμπιστοσύνης πελατών και επενδυτών καθιστά τη δημιουργία AI Governance & Culture αναπόσπαστο μέρος κάθε AI επιχειρηματικής πρωτοβουλίας μέσα σε έναν οργανισμό ή μία επιχείρηση».
Η πραγματική πρόκληση δεν είναι να επιλέξει κανείς μεταξύ καινοτομίας και συμμόρφωσης, αλλά να διαμορφώσει ένα πλαίσιο στο οποίο τα δύο συνυπάρχουν. Η ισορροπία αυτή απαιτεί από τις επιχειρήσεις να ενσωματώσουν τις νομικές παραμέτρους ήδη από τη φάση του σχεδιασμού (by design), να επενδύσουν σε διαφάνεια και λογοδοσία, και να χτίσουν διαλειτουργικές (cross-functional) ομάδες που γεφυρώνουν το χάσμα ανάμεσα στην τεχνολογία, τη στρατηγική και τη νομική-κανονιστική λειτουργία.
Η εποχή της “δοκιμής χωρίς ευθύνη” για την τεχνητή νοημοσύνη έχει περάσει. Οι επιχειρήσεις καλούνται να συνθέσουν τον ενθουσιασμό της καινοτομίας με την ωριμότητα της συμμόρφωσης – όχι για να επιβιώσουν, αλλά για να ηγηθούν.
- Ποιες είναι οι σημαντικότερες νομικές και επιχειρηματικές προκλήσεις από τις εφαρμογές ΑΙ;

Π.Φ.: To AI είναι εδώ. Μονόδρομος και κύρια πρόκληση για τις επιχειρήσεις είναι η ταχεία ενσωμάτωση εφαρμογών AI στις επιχειρηματικές διαδικασίες, η οποία όμως ταυτόχρονα δημιουργεί νέες, πολυεπίπεδες νομικές προκλήσεις. Οι εταιρείες καλούνται να διαχειριστούν τον νομικό και επιχειρηματικό κίνδυνο που προκύπτει από τη λήψη αυτοματοποιημένων αποφάσεων χωρίς ανθρώπινη εποπτεία, τα ζητήματα ευθύνης και την προστασία προσωπικών δεδομένων σύμφωνα με τον GDPR και τον νέο EU AI Act. Παράλληλα, εγείρονται θέματα πνευματικής ιδιοκτησίας, αλγοριθμικής διαφάνειας και δεοντολογίας κατά την χρήση ΑΙ συστημάτων. Η ανάγκη για συμμόρφωση, αξιολόγηση κινδύνων και ενίσχυση της εμπιστοσύνης πελατών και επενδυτών καθιστά τη δημιουργία AI Governance & Culture αναπόσπαστο μέρος κάθε AI επιχειρηματικής πρωτοβουλίας μέσα σε έναν οργανισμό ή μία επιχείρηση.

E.M.: Ποιος φοβάται την τεχνητή νοημοσύνη; Ποτέ δεν θα ξεχάσω συνομιλίες μου με πανεπιστημιακούς δασκάλους που μου ανέφεραν ότι στο πλαίσιο εκπόνησης κάποιας έρευνας έπρεπε να αναζητούν μήνα προς μήνα στη νομική αποδελτίωση δικαστικές αποφάσεις. Με τις πλατφόρμες νομικού περιεχομένου ο χρόνος αναζήτησης περιορίστηκε σημαντικά. Με τη σωστή εκπαίδευση των μοντέλων τεχνητής νοημοσύνης, η αναζήτηση συνολικής πληροφορίας θα πλησιάσει την ταχύτητα του φωτός. Ένα μόνο παράδειγμα από τα χιλιάδες εφαρμογών της ΑΙ. Γιατί να μη συμφιλιωθούμε ως νομική με την ιδέα της χρησιμοποίησης του εργαλείου υπέρ μας, αντί να αναλωνόμαστε σε συζητήσεις για το πότε – για την ακρίβεια πόσο γρήγορα – θα εξαφανιστεί το νομικό επάγγελμα;

A.Π.: Η χρήση ΑΙ φέρνει τεράστιες ευκαιρίες αλλά και προκλήσεις που ξεπερνούν τα όρια του κλασικού δικαίου. Ποιος ευθύνεται για την απόφαση μιας μηχανής; Πώς προστατεύεται η ανθρώπινη αξιοπρέπεια όταν αλγόριθμοι προβλέπουν ή κρίνουν; Οι επιχειρήσεις καλούνται να ισορροπήσουν ανάμεσα στην καινοτομία και την ηθική, ενώ οι νομικοί γίνονται συνοδοιπόροι στον σχεδιασμό ενός μέλλοντος όπου η τεχνητή νοημοσύνη (ΤΝ) υπηρετεί τον άνθρωπο. Στα πλαίσια αυτά, αποτελεσματικότερο θα ήταν το δίκαιο της ΤΝ να είχε παγκόσμια εμβέλεια και όχι εθνική. Λέτε να είναι αυτή η αφορμή, όπου το απαιτεί η φύση του αντικειμένου, να ξανασκεφτούμε το νομοπαρασκευαστικό έργο;