Συμμόρφωση με την Πράξη για την Τεχνητή Νοημοσύνη: όχι μόνο “βάρος” αλλά και ευκαιρία
Λίλιαν Μήτρου
Καθηγήτρια Πανεπιστημίου Αιγαίου
Αυγουστιανάκης-Μήτρου Δικηγορική Εταιρία
Άρθρο στο Μηνιαίο Ενημερωτικό Δελτίο ΣΕΒ – Ρυθμιστικό Περιβάλλον και Επιχειρήσεις – 28 Ιουνίου 2024
Η ΕΕ ακολούθησε το δρόμο της κανονιστικής παρέμβασης αναφορικά με τη χρήση του φάσματος τεχνολογιών που υπάγονται στην έννοια του συστήματος Τεχνητής Νοημοσύνης, εισάγοντας την Πράξη για την Τεχνητή Νοημοσύνη (Artificial Intelligence Act ή AIA) που πρόκειται να δημοσιευτεί στο επόμενο διάστημα και να εφαρμοστεί σταδιακά με ορίζοντα την επόμενη τριετία. Οι ρυθμίσεις αυτού του Κανονισμού, ο οποίος συνιστά το πρώτο διεθνώς νομικά δεσμευτικό κείμενο για τη χρήση συστημάτων τεχνητής νοημοσύνης, αφορούν κατά περίπτωση όλους τους λεγόμενους «φορείς εκμετάλλευσης» ενός συστήματος ΤΝ (πάροχοι, χρήστες, εξουσιοδοτημένοι αντιπρόσωποι, εισαγωγείς διανομείς).
Βασικός γνώμονας υπήρξε η «προσέγγιση με βάση τον κίνδυνο» που συνεπάγεται η χρήση συστημάτων ΤΝ, δηλ. των πιθανών επιπτώσεων στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, τη δημοκρατία, το κράτος δικαίου και το περιβάλλον. Οι υποχρεώσεις και οι όροι προβλέπονται και επιβάλλονται με κριτήριο την κατάταξη των συστημάτων σε επίπεδα κινδύνου. Αυτά κλιμακώνονται από τα συστήματα «ελάχιστου κίνδυνου» για τα οποία δεν προβλέπονται υποχρεώσεις συμμόρφωσης, τα συστήματα «ελάχιστου κινδύνου διαφάνειας» (π.χ. χρήση διαλογικών ρομπότ), τα συστήματα υψηλού κινδύνου (π.χ. χρήση σε υποδομές ζωτικής σημασίας όπως ο τομέας ηλεκτρικής ενέργειας ή στο πεδίο της απασχόλησης και διαχείρισης εργαζομένων) έως την απαγόρευση χρήσης συστημάτων «μη αποδεκτού κινδύνου» (π.χ. κοινωνική βαθμολόγηση για δημόσιους και ιδιωτικούς σκοπούς ή «αναγνώριση συναισθημάτων στον χώρο εργασίας»). Ο κύριος όγκος των απαιτήσεων συμμόρφωσης αφορά τους παρόχους συστημάτων υψηλού κινδύνου αλλά δεν πρέπει να παραβλέπονται και επιμέρους υποχρεώσεις, όπως π.χ. η υποχρέωση διαφάνειας έναντι του καταναλωτή που αλληλοεπιδρά με ένα chatbot αλλά και ζητήματα ευθύνης που μπορεί να απορρέουν από τη χρήση τέτοιων συστημάτων.
‘Όταν μία επιχείρηση διερευνά τις ευκαιρίες και τις ωφέλειες που προσφέρει η Τεχνητή Νοημοσύνη θα πρέπει να προσδιορίσει τις ανάγκες και τις επιδιώξεις της αλλά και τον ρόλο της σε αυτό το νέο, πολλά υποσχόμενο αλλά και απαιτητικό, οικοσύστημα και αντίστοιχα να κατανοήσει τις υποχρεώσεις της ως πάροχος ή χρήστης. Δεν είναι ευχερής η συμμόρφωση καθώς θα πρέπει να εξοικειωθούμε με νέους όρους, απαιτήσεις, μεθοδολογίες, όπως π.χ. οι μεθοδολογίες εκτίμησης κινδύνων, αλλά δεν είναι ανυπέρβλητα τα εμπόδια, ιδίως αν δεν περιπέσει κανείς σε μία κατάσταση «πανικού συμμόρφωσης».
Είναι κρίσιμο για μια επιχείρηση να αντιληφθεί τη συμμόρφωση ως μια ευκαιρία ορθολογικής και ποιοτικής διαχείρισης και διακυβέρνησης. Η ποιότητα των δεδομένων (αντιπροσωπευτικότητα, εγκυρότητα, ακρίβεια, νομιμότητα χρήσης) είναι καθοριστικής σημασίας όχι μόνο για τη συμμόρφωση αλλά και για την επίτευξη των στόχων μιας επιχείρησης. Σε αυτό το πλαίσιο απαιτείται και η συμμόρφωση με τους κανόνες που αφορούν τη χρήση διάφορων κατηγοριών δεδομένων (π.χ. τον Γενικό Κανονισμό Προστασίας Δεδομένων – GDPR) που χρησιμοποιούνται για την εκπαίδευση συστημάτων ή τη συναγωγή αποτελεσμάτων, περιεχομένου, συστάσεων ή την παραγωγή αποφάσεων.
Η Πολιτεία θα πρέπει από την πλευρά της να διασφαλίσει ένα σαφές στρατηγικό και αναπτυξιακό πεδίο. Εάν θέλουμε μία ισόρροπη, συνεκτική και βιώσιμη ανάπτυξη, όπου η νομοθεσία θα παρέχει ασφαλές περιβάλλον αλλά δεν θα λειτουργεί αναδραστικά στην αξιοποίηση της τεχνολογίας και την καινοτομία, θα πρέπει να συσταθούν μηχανισμοί υποστήριξης αλλά και συστήματα και αρχές εποπτείας, που θα εγγυώνται την εκπλήρωση των βασικών στόχων της Artificial Intelligence Act, δηλ. την αξιοποίηση της Τεχνητής Νοημοσύνης με ασφάλεια προϊόντων/υπηρεσιών, προστασία θεμελιωδών δικαιωμάτων, χωρίς όμως να ορθώνονται αναίτια εμπόδια στην τεχνολογική και οικονομική εξέλιξη και πρόοδο.