Γιάννης Καρούζος: Η πρώτη νομοθεσία στο εργατικό δίκαιο για την Τεχνητή Νοημοσύνη
Στις 14 Φεβρουαρίου 2024, η Ευρωπαϊκή Ένωση έκανε ένα ιστορικό βήμα στη ρύθμιση της τεχνητής νοημοσύνης (Τ.Ν.) με την τελική έγκριση του κειμένου της Πράξης Artificial intelligence (A.I.).
Το εν λόγω νομοθέτημα αποτελεί την πρώτη προσπάθεια παγκοσμίως να παράσχει ένα ολιστικό ρυθμιστικό πλαίσιο για τη διαχείριση της τεχνητής νοημοσύνης, σηματοδοτώντας μια κομβική στιγμή για την παγκόσμια τεχνολογική νομοθεσία. Παράλληλα, η Ε.Ε. εργάζεται για μια οδηγία περί ευθύνης για την τεχνητή νοημοσύνη, η οποία θα εξασφαλίσει οικονομική αποζημίωση για όσους βλάπτονται από την τεχνητή νοημοσύνη. Οι διαπραγματεύσεις συνεχίζονται και είναι πιθανό να επαναληφθούν φέτος.
Ο Κανονισμός για την τεχνητή νοημοσύνη αποσκοπεί στην επίτευξη ισορροπίας μεταξύ αφενός της προώθησης της τεχνητής νοημοσύνης, και αφετέρου της παράλληλης προστασίας των θεμελιωδών δικαιωμάτων των Ευρωπαίων πολιτών.
Έτσι, στο επίκεντρο βρίσκονται διατάξεις που αποσκοπούν στον μετριασμό των κινδύνων που μπορεί να προκαλέσει η τεχνητή νοημοσύνη για την κοινωνία και τη δημοκρατία. Ειδικότερα, ο κανονισμός κατηγοριοποιεί τα συστήματα της τεχνητής νοημοσύνης ανάλογα με το επίπεδο κινδύνου που παρουσιάζουν, εισάγοντας ειδικούς περιορισμούς για εκείνα που θεωρούνται υψηλού κινδύνου.
Ως τέτοια, δηλαδή ως «συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου», ορίζονται στον σχετικό κανονισμό συστήματα που αφορούν
(α) σε βιομετρικά στοιχεία (π.χ. απομακρυσμένα συστήματα βιομετρικής ταυτοποίησης και συστήματα τεχνητής νοημοσύνης για αναγνώριση συναισθημάτων),
(β) σε κρίσιμες υποδομές (π.χ. συστήματα Τ.Ν. που χρησιμοποιούνται ως στοιχεία ασφαλείας στη διαχείριση και λειτουργία κρίσιμων ψηφιακών υποδομών, οδικής κυκλοφορίας, ύδρευσης, φυσικού αερίου, θέρμανσης και παροχής ηλεκτρικής ενέργειας),
(γ) στην εκπαίδευση και επαγγελματική κατάρτιση (π.χ. συστήματα τεχνητής νοημοσύνης για τον καθορισμό της πρόσβασης, της εισαγωγής ή της ανάθεσης σε ιδρύματα επαγγελματικής εκπαίδευσης και κατάρτισης, συστήματα Τ.Ν. για την αξιολόγηση των μαθησιακών αποτελεσμάτων, και συστήματα τεχνητής νοημοσύνης για την παρακολούθηση και τον εντοπισμό απαγορευμένης συμπεριφοράς μαθητών κατά τη διάρκεια εξετάσεων),
(δ) στην απασχόληση, τη διαχείριση της εργασίας και την πρόσβαση στην αυτοαπασχόληση (π.χ. συστήματα τεχνητής νοημοσύνης για την πρόσληψη και για τη λήψη αποφάσεων που επηρεάζουν τους όρους των εργασιακών σχέσεων, την προαγωγή και τη λήξη των συμβάσεων εργασίας),
(ε) σε πρόσβαση και απόλαυση βασικών ιδιωτικών και δημόσιων υπηρεσιών και παροχών (π.χ. συστήματα Τ.Ν. που χρησιμοποιούνται από δημόσιες αρχές για την αξιολόγηση της επιλεξιμότητας των πολιτών για βασική δημόσια βοήθεια και υπηρεσίες, συστήματα Τ.Ν. για την αξιολόγηση της πιστοληπτικής ικανότητας των πολιτών),
(στ) στην επιβολή του νόμου (π.χ. συστήματα Τ.Ν. που χρησιμοποιούνται από τις αρχές επιβολής του νόμου για την αξιολόγηση του κινδύνου ένα άτομο να πέσει θύμα εγκλήματος, συστήματα Τ.Ν. για την αξιολόγηση της αξιοπιστίας των αποδεικτικών στοιχείων σε ποινικές έρευνες ή διαδικασίες, συστήματα Τ.Ν. για τη δημιουργία προφίλ προσώπων στο πλαίσιο της ανίχνευσης, διερεύνησης ή δίωξης εγκλημάτων),
(ζ) στη διαχείριση της μετανάστευσης, του ασύλου και των συνοριακών ελέγχων (συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται από τις αρμόδιες αρχές για την αξιολόγηση κινδύνων, συμπεριλαμβανομένων των κινδύνων για την ασφάλεια, της παράτυπης μετανάστευσης ή των κινδύνων για την υγεία, συστήματα Τ.Ν. που βοηθούν τις αρμόδιες αρχές στην εξέταση αιτήσεων ασύλου, θεωρήσεων και αδειών διαμονής),
(η) στην απονομή δικαιοσύνης και δημοκρατικές διαδικασίες (π.χ. συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται από το δικαστικό σώμα για να βοηθήσουν στην έρευνα και την ερμηνεία των γεγονότων και του νόμου, συστήματα τεχνητής νοημοσύνης για τον επηρεασμό του αποτελέσματος εκλογών ή δημοψηφισμάτων ή της εκλογικής συμπεριφοράς των πολιτών).
Ο Κανονισμός θεσπίζει επίσης μια “μαύρη λίστα” πρακτικών Τεχνητής Νοημοσύνης που θεωρούνται απαράδεκτες λόγω της δυνατότητάς τους να απειλούν τα ανθρώπινα δικαιώματα, όπως εφαρμογές που χειραγωγούν την ανθρώπινη συμπεριφορά για να καταστρατηγήσουν την ελεύθερη βούληση. Ταυτόχρονα, εισάγει την υποχρέωση για τους προγραμματιστές και τους διανομείς Τεχνητής Νοημοσύνης να διασφαλίζουν ότι οι χρήστες γνωρίζουν ότι αλληλεπιδρούν με μια μηχανή, απαιτώντας το περιεχόμενο που παράγεται από την Τεχνητή Νοημοσύνη να επισημαίνεται σαφώς ως τέτοιο.
Ως παραδείγματα συστημάτων τεχνητής νοημοσύνης που υπό το νέο Κανονισμό θεωρούνται υψηλού κινδύνου και απαιτούν έτσι αυστηρή ρύθμιση θα μπορούσαν να αναφερθούν οι πλατφόρμες τεχνητής νοημοσύνης που χρησιμοποιούνται για το φιλτράρισμα των αιτήσεων ή την αξιολόγηση των υποψηφίων εργαζομένων, οι οποίες και θα πρέπει να σχεδιάζονται ώστε να αποφεύγεται η μεροληψία και να διασφαλίζεται η διαφάνεια των αποφάσεων, τα σύστημα Τ.Ν. για την υποβοήθηση της λήψης δικαστικών αποφάσεων, που χρησιμοποιούνται για την ανάλυση δεδικασμένων και την υποβολή προτάσεων ερμηνείας του νόμου, το οποίο πρέπει να διασφαλίζει ότι οι συστάσεις βασίζονται σε κατανοητή και αμερόληπτη λογική, ενώ ιδιαίτερη προσοχή χρήζουν και πλατφόρμες τεχνητής νοημοσύνης για την εισαγωγή σε πανεπιστήμια που αναλύουν τις αιτήσεις για να καθορίσουν την επιλεξιμότητα των φοιτητών, έχοντας να εξασφαλίσουν δικαιοσύνη και διαφάνεια στις αποφάσεις εισαγωγής.
Δέον να τονιστεί ότι οι παραβάσεις των διατάξεων του εν λόγω Κανονισμού μπορούν να οδηγήσουν σε σημαντικά πρόστιμα, τα οποία κυμαίνονται από 7,5 εκατομμύρια ευρώ κατ’ ελάχιστο ή 1,5% του παγκόσμιου κύκλου εργασιών έως 35 εκατομμύρια ευρώ κατ’ ανώτατο όριο ή 7% του παγκόσμιου κύκλου εργασιών, ανάλογα με τη σοβαρότητα της παράβασης. Αυτό υπογραμμίζει την αποφασιστικότητα της Ε.Ε. να επιβάλει αυστηρά τους νέους κανόνες.
Εννοείται πως ένας τέτοιος κανονισμός συνεπάγεται πολλαπλές επιπτώσεις για τις εταιρείες:
٠ Οι εταιρείες που αναπτύσσουν ή χρησιμοποιούν συστήματα Τ.Ν. που έχουν χαρακτηριστεί ως υψηλού κινδύνου θα πρέπει να συμμορφώνονται με τις αυστηρές απαιτήσεις, συμπεριλαμβανομένης της διαχείρισης κινδύνου, της διαφάνειας, και της ανθρώπινης εποπτείας. Αυτό μπορεί να απαιτήσει σημαντικές αναθεωρήσεις στις διαδικασίες ανάπτυξης και αξιολόγησης των συστημάτων Τ.Ν..
٠ Πρέπει επίσης να τηρούν λεπτομερή τεκμηρίωση σχετικά με τις διαδικασίες ανάπτυξης, αξιολόγησης και εγκατάστασης των συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου και ενδέχεται να υποχρεούνται να καταχωρίζουν τα συστήματα αυτά σε βάση δεδομένων της Ε.Ε..
٠ Θα πρέπει ακόμη να διασφαλίσουν ότι τα συστήματα τεχνητής νοημοσύνης τους σέβονται τις αρχές ελαχιστοποίησης των δεδομένων και προστασίας τους από επεξεργασία, σύμφωνα με τον ΓΚΠΔ και άλλους κανονισμούς προστασίας δεδομένων. Ενδέχεται να απαιτηθούν πρόσθετα μέτρα, όπως η ανωνυμοποίηση και η κρυπτογράφηση δεδομένων.
Επιπλέον, τα συστήματα Τ.Ν. υψηλού κινδύνου θα πρέπει να σχεδιάζονται έτσι ώστε να επιτρέπουν την αποτελεσματική ανθρώπινη εποπτεία, διασφαλίζοντας ότι οι άνθρωποι θα μπορούν να παρακολουθούν και να παρεμβαίνουν στη λειτουργία του συστήματος. Αυτό μπορεί να συνεπάγεται ειδική εκπαίδευση των χειριστών και τη δημιουργία πρωτοκόλλων για την ανθρώπινη εποπτεία.
٠ Τέλος, τα συστήματα που επεξεργάζονται βιομετρικά δεδομένα θα υπόκεινται σε ιδιαίτερα αυστηρές απαιτήσεις, δεδομένης της δυνατότητάς τους να επηρεάζουν τα θεμελιώδη δικαιώματα και την ιδιωτική ζωή των ανθρώπων. Αυτό θα μπορούσε να επηρεάσει τη χρήση τεχνολογιών όπως η αναγνώριση προσώπου ή η συναισθηματική ταυτοποίηση.
Οι επιπτώσεις αυτές θα απαιτήσουν προσεκτική εξέταση από τις εταιρείες που εργάζονται με τεχνητή νοημοσύνη, καθώς και την υιοθέτηση κατάλληλων πρακτικών συμμόρφωσης για να διασφαλιστεί ότι τα συστήματα τεχνητής νοημοσύνης τους συμμορφώνονται με το νέο κανονιστικό πλαίσιο της Ε.Ε.. Η πολυπλοκότητα και το πεδίο εφαρμογής του νόμου για την τεχνητή νοημοσύνη καθιστούν ζωτικής σημασίας για τις εταιρείες να λάβουν εξειδικευμένες νομικές συμβουλές για να περιηγηθούν αποτελεσματικά σε αυτό το νέο ρυθμιστικό περιβάλλον.
Ο νέος κανονισμός θα επηρεάσει και την οργάνωση της εργασίας
Είναι γεγονός ότι η τεχνητή νοημοσύνη σε συνδυασμό με την αυτοματοποίηση έχει ήδη αλλάξει τον τρόπο εργασίας σε πολλές βιομηχανίες, ιδίως δε σε τομείς που ιστορικά κυριαρχούνταν από την ανθρώπινη εργασία: όπως οι τράπεζες, η πληρωμή διοδίων αυτοκινητοδρόμων ή τα ταμεία των σούπερ μάρκετ. Κανείς δεν λυπάται βέβαια για την έλλειψη ουρών σε γκισέδες, ταμεία ή διόδια..
Όπως εξηγήθηκε ανωτέρω, ο κανονισμός προτείνει να θεωρούνται υψηλού κινδύνου όλα τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται από τον εργοδότη/εντολέα για την πρόσληψη ή την επιλογή προσωπικού, την κατάρτιση στοχευμένων αγγελιών, την ανάλυση ή το φιλτράρισμα αιτήσεων ή την αξιολόγηση υποψηφίων για μια συγκεκριμένη θέση ή την ανάθεση καθηκόντων με βάση τη συμπεριφορά ή τα προσωπικά χαρακτηριστικά ή χαρακτηριστικά του προσώπου. Τα συστήματα Τ.Ν. που χρησιμοποιούνται για την παρακολούθηση και την αξιολόγηση της απόδοσης ή της συμπεριφοράς των εργαζομένων, καθώς και εκείνα που χρησιμοποιούνται για τη λήψη απόφασης σχετικά με τη λύση ή μη μιας σχέσης εργασίας θεωρούνται επίσης υψηλού κινδύνου.
Δεν πρέπει όμως να αγνοήσουμε ότι τα μοντέλα τεχνητής νοημοσύνης μπορούν να χρησιμοποιηθούν και ως συστατικά στοιχεία συστημάτων ασφάλειας των εργαζομένων (όπως εργονομικές στολές για την πρόληψη και τον έλεγχο μυοσκελετικών παθήσεων) και μπορούν να παρέχουν πληθώρα δεδομένων σε πραγματικό χρόνο που συλλέγονται και υποβάλλονται συνεχώς σε επεξεργασία για τη λήψη αποφάσεων. Τα συστήματα τεχνητής νοημοσύνης μπορούν επίσης να χρησιμοποιηθούν στην επαγγελματική εκπαίδευση ή κατάρτιση (βλ. αιτιολογική σκέψη 35).
Ωστόσο, τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για την παρακολούθηση της απόδοσης ή της συμπεριφοράς των εργαζομένων ενδέχεται να παραβιάζουν την προστασία των δεδομένων προσωπικού χαρακτήρα επηρεάζοντας αδικαιολόγητα την ιδιωτική ζωή: οι υποχρεώσεις που απορρέουν από τον ευρωπαϊκό κανονισμό για την προστασία της ιδιωτικής ζωής παραμένουν ανεπηρέαστες.
Συμπερασματικά, ο νέος Κανονισμός για την τεχνητή νοημοσύνη σηματοδοτεί ένα σημείο καμπής στη ρύθμιση της τεχνητής νοημοσύνης, επιχειρώντας να περιηγηθεί στα πολύπλοκα νερά μεταξύ της τεχνολογικής καινοτομίας και της προστασίας των ατομικών δικαιωμάτων. Η εφαρμογή του και οι μακροπρόθεσμες επιπτώσεις του θα παρακολουθούνται στενά από τους νομοθέτες, τις εταιρείες και την κοινωνία των πολιτών σε ολόκληρη την Ευρώπη και πέραν αυτής.
*Γιάννης Καρούζος, Δικηγόρος-Εργατολόγος
**Το άρθρο πρωτοδημοσιεύθηκε στο mononews.gr
ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ
Μπορώ να ασκώ άλλο επάγγελμα όσο είμαι σε διαθεσιμότητα; Γιάννης Καρούζος: Το επιτυχημένο Job description που πρέπει να συντάσσει ο Υπεύθυνος HR πριν την επιλογή υποψηφίου Κατερίνα Φραγκάκη: Με ποιον τρόπο μπορούν οι οφειλέτες με ληξιπρόθεσμες οφειλές σε Δημόσιο και τράπεζες να σταματήσουν πλειστηριασμούς ακινήτων Σουζάνα Κλημεντίδη: Ακυρώθηκε δήλωση συνέχισης πλειστηριασμού – Δεν εκδόθηκε και δεν επιδόθηκε στον οφειλέτη νέο απόσπασμα κατασχετήριας έκθεσης Γιάννης Καρούζος: Τι ισχύει με το επίδομα γάμουΑκολουθήστε το dikastiko.gr στο Google News και δείτε πρώτοι όλες τις ειδήσεις
Διαβάστε όλες τις τελευταίες ειδήσεις από την Ελλάδα και τον Κόσμο στο dikastiko.gr