Τρεις δικαστές γράφουν στο dikastiko.gr “για την είσοδο της τεχνητής νοημοσύνης στην απονομή Δικαιοσύνης”: “Είναι σωστό να δικάζει τους πολίτες ένας αλγόριθμος;”

Οι διοικητικοί δικαστές Φανή Σωτηριάδου, Πρωτοδίκης Δ.Δ, Γιώργος Μαρμαρίδης, Πρωτοδίκης Δ.Δ, και Βασίλης Φαϊτάς, Εφέτης Δ.Δ, κάνουν μία πρώτη προσέγγιση στο επίκαιρο ζήτημα της χρήσης τεχνητής νοημοσύνης στην απονομή της διοικητικής δικαιοσύνης.

NEWSROOM
Τρεις δικαστές γράφουν στο dikastiko.gr “για την είσοδο της τεχνητής νοημοσύνης στην απονομή Δικαιοσύνης”: “Είναι σωστό να δικάζει τους πολίτες ένας αλγόριθμος;”

Μία πρώτη προσέγγιση για το επίκαιρο ζήτημα της χρήσης τεχνητής νοημοσύνης στην απονομή της διοικητικής δικαιοσύνης επιχειρούν τρεις δικαστές που γράφουν στο dikastiko.gr και συγκεκριμένα οι Φανή Σωτηριάδου, Πρωτοδίκης Δ.Δ., Γιώργος Μαρμαρίδης, Πρωτοδίκης Δ.Δ. και Βασίλης Φαϊτάς, Εφέτης Δ.Δ.

Όπως αναφέρουν ξεχωριστό κεφάλαιο αποτελεί η χρήση της τεχνητής νοημοσύνης στο δικαστικό management, ενώ για την ψηφιοποίηση της δικαιοσύνης και τη χρήση τεχνητής νοημοσύνης οι θέσεις τους θα αναπτυχθούν από τη Φανή Σωτηριάδου στο επιστημονικό συνέδριο της Ένωσης Διοικητικών Δικαστών, που θα διεξαχθεί στο Βόλο, στις 4 και 5 Οκτωβρίου 2024.

Η χρήση της τεχνητής νοημοσύνης στον χώρο της δικαιοσύνης είναι ένα ζήτημα πραγματικό εδώ και περισσότερο από μία δεκαετία (βλ. συστήματα αξιολόγησης ρίσκου στα συστήματα ποινικής δικαιοσύνης των Η.Π.Α.) και ταχέως εξελισσόμενο στο ευρωπαϊκό έδαφος. Ήδη, σε ορισμένα ευρωπαϊκά δικαστικά συστήματα (βλ. Ολλανδία, Γαλλία, Εσθονία) η τεχνητή νοημοσύνη έχει αποκτήσει τον σταθερό βηματισμό της, ενώ πληθαίνουν τα ευρωπαϊκά θεσμικά κείμενα, που επιχειρούν να θέσουν το πλαίσιο λειτουργίας αυτής της καινοτόμου εξέλιξης [βλ. ιδίως τον «Ευρωπαϊκό Χάρτη Δεοντολογίας για τη χρήση της Τεχνητής Νοημοσύνης στα δικαστικά συστήματα και στο περιβάλλον τους» της Ευρωπαϊκής Επιτροπής για την Αποτελεσματικότητα της Δικαιοσύνης (CEPEJ), τη διεθνή συνθήκη «Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law» του Συμβουλίου της Ευρώπης, καθώς και την προσφάτως υιοθετηθείσα από το Ευρωπαϊκό Κοινοβούλιο, κανονιστικού περιεχομένου, «Artificial Intelligence Act (AI ACT)»]. [1]. Ωστόσο, η χρήση της τεχνητής νοημοσύνης από τα ευρωπαϊκά δικαστικά συστήματα δεν αφορά απλώς την είσοδο ενός τεχνολογικού και επιστημονικού επιτεύγματος στην οργανωτική λειτουργία ενός θεσμού, αλλά είναι δεμένη με τους στόχους που έχει θέσει η Ε.Ε., όπως αυτοί διακηρύσσονται στη Λευκή Βίβλο για την Τεχνητή Νοημοσύνη για ανάδειξη της Ένωσης σε ηγέτιδα δύναμη στην οικονομία αξιοποίησης δεδομένων, μέρος της οποίας καταλαμβάνει και η μορφή επενδύσεων τεχνητής νοημοσύνης στον δημόσιο τομέα και ειδικότερα στη δικαιοσύνη [2]. Αν λάβει κανείς, επιπλέον, υπόψη τις προβλέψεις διεθνών αναλυτών για την εκδήλωση μίας νέας παγκόσμιας οικονομικής κρίσης, σημάδια της οποίας είχαν ήδη φανεί στη Γερμανία [3], αλλά και τις σοβαρές ανακατατάξεις που συντελούνται στον παγκόσμιο ανταγωνισμό [4], μπορεί να αντιληφθεί ακόμη καλύτερα τη σπουδή των κρατών μελών για επίσπευση των επενδύσεων στον κλάδο της τεχνητής νοημοσύνης [5]. Ωστόσο, ταυτόχρονα με την κούρσα του διεθνούς ανταγωνισμού, η Ε.Ε έχει να αντιμετωπίσει και τις αντιφάσεις που εξελίσσονται στο εσωτερικό της, με την ανισόμετρη ανάπτυξη των οικονομιών των κρατών-μελών, ενώ το διαφορετικό επίπεδο ανάπτυξης του τομέα καινοτομίας και έρευνας, καθώς και το διαφορετικό μέγεθος των επενδύσεων που θα λάβουν χώρα σε κάθε κράτος μέλος, θα συμβάλλει αντικειμενικά στην όξυνση του ανταγωνισμού μεταξύ τους. Για τον λόγο δε αυτόν, μεταξύ άλλων, τα κράτη μέλη προχώρησαν στην υιοθέτηση της προαναφερθείσας ΑΙ ACT, τον πρώτο Ευρωπαϊκό Κανονισμό για την Τεχνητή Νοημοσύνη, με σκοπό, όπως στο ίδιο το κείμενο αυτής αναφέρεται, να υπάρξει εναρμόνιση των εσωτερικών αγορών. Το γεγονός, λοιπόν, ότι η ψηφιοποίηση της δικαιοσύνης αποτελεί, πρωτίστως, οικονομικό στόχο της Ε.Ε. τοποθετεί εξ αρχής τη συζήτηση σε άλλο επίπεδο, όχι αφηρημένα φιλοσοφικό για τα υπέρ ή τα κατά της χρήσης της τεχνητής νοημοσύνης στην απονομή της δικαιοσύνης, αλλά σε αυτό του σύνθετου πλέγματος των διεθνών και εγχώριων ανταγωνισμών και της επίδρασης που μπορεί να έχουν, αναλόγως της τροπής που κάθε φορά θα παίρνουν, στον συγκεκριμένο επενδυτικό τομέα, κατ’ επέκταση δε και στη λειτουργία του θεσμού [6].

dikastiko.gr

Σύμφυτο με τα ζητήματα εφαρμογής της τεχνητής νοημοσύνης είναι το ζήτημα του περιβόητου «AI-alignment», δηλαδή της ευθυγράμμισης των συστημάτων τεχνητής νοημοσύνης με κάποια γενικά κριτήρια «ηθικής». Σε επίπεδο νομικού διαλόγου, ο σύγχρονος προβληματισμός που αναπτύσσεται γύρω από τα ζητήματα ηθικής που μπορεί να ανακύψουν, τουλάχιστον στον χώρο της δικαιοσύνης, τροφοδοτείται σε μεγάλο βαθμό από την εμπειρία της εφαρμογής της τεχνητής νοημοσύνης σε άλλα δικαστικά συστήματα και υπηρεσίες ξένων χωρών. Έτσι, πολλοί είναι αυτοί που αναρωτιούνται αν είναι σωστό να δικάζει τους πολίτες ένας αλγόριθμος, τοποθετώντας στο κέντρο του διαλόγου το έως πού πρέπει να φθάνει η χρήση τεχνητής νοημοσύνης στην απονομή της δικαιοσύνης (λ.χ. υπολογισμός προθεσμιών, ανεύρεση νομολογίας και νομοθεσίας, απομόνωση από το δικόγραφο των κρίσιμων νομικών ισχυρισμών και πραγματικών περιστατικών ή και δικανική κρίση; [7]), ούτως ώστε αυτή να παραμείνει μια ανθρωποκεντρική διαδικασία με κύρια συνιστώσα την αξιολογική κρίση του δικαστή και όχι την αποστασιοποιημένη κρίση ενός αλγόριθμου, ή αναδεικνύουν τον κίνδυνο που διατρέχει η απονομή της δικαιοσύνης να βρεθεί έκθετη σε προκαταλήψεις, ακόμα και σε ρατσιστικές αντιλήψεις, που οι άνθρωποι έχουν μεταφέρει στους αλγόριθμους, υφιστάμενη, κατ’ επέκταση, ένα ισχυρό πλήγμα στην αμεροληψία της. Άλλωστε, τα τέτοιου είδους παραδείγματα δεν είναι λίγα, με χαρακτηριστικότερο όλων το χρησιμοποιούμενο στις Η.Π.Α. αλγοριθμικό σύστημα αξιολόγησης κινδύνου υποτροπής COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), το οποίο αξιολογεί τους κινδύνους υποτροπής τέλεσης ποινικά κολάσιμης πράξης κατά το στάδιο λήψης απόφασης περί προφυλάκισης, επιβολής ποινής και αποφυλάκισης και το οποίο κατέληγε να διαγιγνώσκει στα άτομα αφροαμερικανικής καταγωγής κίνδυνο υποτροπής δύο φορές μεγαλύτερο από άλλες πληθυσμιακές ομάδες εντός ενός χρονικού διαστήματος δύο ετών από την επιβολή της ποινής, υποκείμενο σαφώς σε φυλετικές προκαταλήψεις [8]. Εξίσου ενδεικτικό είναι το περίφημο ολλανδικό σκάνδαλο των επιδομάτων τέκνου, το οποίο οδήγησε στην παραίτηση της ολλανδικής κυβέρνησης το 2021, καθώς, προκειμένου να δημιουργήσει προφίλ κινδύνου για τα άτομα που υποβάλλουν αίτηση για επιδόματα παιδιού, η ολλανδική φορολογική και τελωνειακή διοίκηση χρησιμοποίησε αλγόριθμους, στους οποίους χρησιμοποιήθηκαν τα ονόματα που «ηχούσαν ξένα» και η «διπλή ιθαγένεια» ως δείκτες πιθανής απάτης. Κατά συνέπεια, χιλιάδες (ανάλογα με το φυλετικό τους προφίλ) οικογένειες χαμηλού και μεσαίου εισοδήματος υποβλήθηκαν σε έλεγχο, κατηγορήθηκαν ψευδώς για απάτη και τους ζητήθηκε να επιστρέψουν επιδόματα που είχαν λάβει απολύτως νόμιμα [9]. Τέλος, ιδιαίτερη αίσθηση προκάλεσε στις Η.Π.Α. η περίπτωση της UnitedHealth Group, της μεγαλύτερης ασφαλιστικής εταιρείας των Η.Π.Α., με 52,9 εκατ. πελάτες, η οποία με τη χρήση ενός αλγόριθμου τεχνητής νοημοσύνης προχωρούσε σε πρόωρη διακοπή της ασφαλιστικής κάλυψης ηλικιωμένων ασφαλισμένων, οι οποίοι νοσηλεύονταν σε κέντρα αποκατάστασης, με αποτέλεσμα, σύμφωνα με τους ισχυρισμούς της ομαδικής αγωγής που κατατέθηκε σε βάρος της, οι ασφαλισμένοι και οι οικογένειές τους να επωμίζονται προσωπικά το οικονομικό κόστος της περίθαλψής τους. Αυτό συνέβη, διότι στόχος της εταιρείας ήταν το κόστος της αποκατάστασης να μην ξεπερνά το 1% των προβλεπόμενων από τον αλγόριθμο απαιτούμενων ημερών αποκατάστασης [10]. Αυτό το τελευταίο, βέβαια, αποδεικνύει από μόνο του ότι καμία δικλείδα ασφαλείας δεν θα ήταν αρκετή, για να αποφευχθεί η δυσμενής μεταχείριση των ηλικιωμένων ασφαλισμένων. Αξίζει δε να αναρωτηθεί κανείς: Θα συνέβαινε το ίδιο σε ένα εντελώς διαφορετικό σύστημα υγείας και κοινωνικής ασφάλισης, μακριά από τη λογική κόστους-οφέλους, όπου η υγειονομική και ιατροφαρμακευτική περίθαλψη του ασφαλισμένου θα αποτελούσε βασική μέριμνα του κράτους και όχι αποκλειστικό μονοπώλιο των ιδιωτικών ασφαλιστικών εταιρειών; Πέρα, όμως, από τον κίνδυνο διακριτικής μεταχείρισης του διοικούμενου ανάλογα με την καταγωγή του, την κοινωνική του θέση, την ηλικία του κ.ά., εξίσου σοβαρός και καθόλα υπαρκτός είναι, κατά κοινή ομολογία όλων των εμπλεκόμενων με την τεχνητή νοημοσύνη φορέων, ο κίνδυνος της παραβίασης των προσωπικών δεδομένων των πολιτών, ζήτημα ιδιαιτέρως σοβαρό και επικίνδυνο, όσες δικλείδες ασφαλείας κι αν επιχειρείται να ληφθούν [11], ενώ, ακόμη, ζητήματα ανακύπτουν και με την αδιαφάνεια που συνοδεύει εγγενώς τη χρήση της τεχνητής νοημοσύνης. Όσον αφορά τούτο το τελευταίο, ιδίως σε περιπτώσεις αυτοματοποιημένων αποφάσεων, οι οποίες εκδίδονται στο πλαίσιο της ηλεκτρονικής εναλλακτικής επίλυσης διαφορών (ιδίως σε υποθέσεις μικρού χρηματικού αντικειμένου, φορολογικές, κοινωνικοασφαλιστικές, υποθέσεις διαζυγίων), εγείρονται σημαντικά ερωτήματα αναφορικά με την ουσιαστική δυνατότητα του ενδιαφερόμενου να αμφισβητήσει την αυτοματοποιημένη κρίση, όπως λ.χ. να αποδείξει την ανακρίβεια των προσωπικών δεδομένων ή την ανεπάρκεια του «προφίλ» που χρησιμοποιήθηκε στην περίπτωσή του [12], δηλαδή ζητήματα που άπτονται της αιτιολογίας της αυτοματοποιημένης απόφασης.

dikastiko.gr

Οι παραπάνω προβληματισμοί έχουν, όπως αναφέρθηκε, αντικειμενική βάση και, ήδη, ταλανίζουν την επιστημονική κοινότητα. Σαφώς, όμως, η ύπαρξη όλων των παραπάνω δεν οδηγεί στο εξ αντιδιαστολής συμπέρασμα ότι η χρήση της τεχνητής νοημοσύνης στην απονομή της ελληνικής δικαιοσύνης δεν έχει τίποτα καλό να προσφέρει. Αντιθέτως, μπορεί εύκολα να γίνει αντιληπτό ότι ένας τέτοιος βοηθός μπορεί να συνδράμει ουσιαστικά το δικαστικό έργο με τρόπους που προαναφέρθηκαν (υπολογισμός προθεσμιών, ανεύρεση νομολογίας και νομοθεσίας, απομόνωση από το δικόγραφο των κρίσιμων νομικών ισχυρισμών και πραγματικών περιστατικών), συμβάλλοντας, έτσι, αποτελεσματικά στην επιτάχυνση της δικαιοσύνης. Ωστόσο, επιχειρήματα τέτοιου τύπου, επικεντρωμένα στην πρακτική διευκόλυνση του δικαστικού έργου, αλλά αποστασιοποιήμενα από τους φορείς και το περιεχόμενο του δικαιώματος δικαστικής προστασίας, οδηγούν σε απλουστεύσεις και, τελικά, σε μία συζήτηση εγκλωβισμένη στη μονομέρεια και την αποσπασματικότητα. Οι γράφοντες αυτό το κείμενο έχουν την άποψη ότι το βασικό ζήτημα όσον αφορά τη χρήση της τεχνητής νοημοσύνης από το δικαστικό μας σύστημα δεν είναι το αν αυτή προσφέρει τη δυνατότητα μίας αποτελεσματικότερης δικαιοσύνης (υπό την έννοια και της ταχύτητας της απονομής της), αλλά αυτή η αποτελεσματικότερη δικαιοσύνη σε ποιους και πόσους, τελικά, απευθύνεται. Με άλλα λόγια, το κατά πόσο οι νέες αυτές δυνατότητες για αποτελεσματικότερη απονομή της δικαιοσύνης αντιστοιχίζονται με την ικανοποίηση ενός ολοένα και διευρυνόμενου δικαιώματος δικαστικής προστασίας, καταρρίπτοντας ό,τι αποτελεί σήμερα πρόσκομμα για την πλειοψηφία των πολιτών, προκειμένου να προσφύγει σε αυτήν. Η απάντηση πρέπει να αναζητηθεί στο συνολικό πλαίσιο των ριζικών μεταρρυθμίσεων που προωθούνται στο δικαστικό μας σύστημα και στη βασική στόχευση αυτών, που δεν είναι άλλη, όσο ουδέτερες ή τεχνοκρατικές κι αν παρουσιάζονται, από τη διαμόρφωση μίας δικαιοσύνης φιλικής προς τους επενδυτές. Οι μεταρρυθμίσεις αυτές (νέος δικαστικός χάρτης, τηλεματικές δίκες, διαμεσολάβηση και στη διοικητική δικαιοσύνη, αλλά και μεταβολή τη υπηρεσιακής κατάστασης των δικαστικών λειτουργών μέσω του νέου ΚΟΔΚΔΛ και τη θέσπιση νέων κριτηρίων αξιολόγησης, όχι άμεσα συνδεόμενων με την ποιότητα των δικαστικών αποφάσεων, με την εισαγωγή του μέτρου της απόσπασης των δικαστών κ.ά.), οι οποίες εντάσσονται στον στόχο που έχει θέσει το Εθνικό Σχέδιο Ανάκαμψης και Ανθεκτικότητας Ελλάδα 2.0. για μία ψηφιακή Δικαιοσύνη (και με τη χρήση τεχνητής νοημοσύνης), έχουν συναποφασισθεί από την ελληνική κυβέρνηση και την Ευρωπαϊκή Επιτροπή, εποπτεύονται από την τελευταία και χρηματοδοτούνται από το Ταμείο Ανάκαμψης, περαιτέρω δε είναι στενά συνδεδεμένες με τις προαναφερθείσες οικονομικές εξελίξεις σε διεθνές και ευρωπαϊκό επίπεδο, καθώς έχουν ως διακηρυγμένο στόχο, όπως διαρκώς επισημαίνεται, την εξάλειψη της καθυστέρησης στην απονομή της δικαιοσύνης με σκοπό την προσέλκυση επενδύσεων και την ώθηση της κίνησης του οικονομικού κύκλου ανάπτυξης. Αν, όμως, αυτός είναι ο βασικός στόχος της ριζικής μεταρρύθμισης του δικαστικού μας συστήματος, πώς αυτό θα επηρεάσει το δικαίωμα δικαστικής προστασίας της πλειοψηφίας των πολιτών, που δεν φέρουν την ιδιότητα του επενδυτή; Πόσο διευκολύνεται η πρόσβαση στη δικαιοσύνη του απλού διοικούμενου, φορολογούμενου, ασφαλισμένου, συνταξιούχου, ελεύθερου επαγγελματία ή μισθωτού; Μία εκ των αλλαγών είναι, όπως είναι ήδη γνωστό από την πολιτική δικαιοσύνη, η συγχώνευση των δικαστηρίων πρώτου βαθμού, με αυτόθροο αποτέλεσμα την κατάργηση, σε πολλές περιπτώσεις, του δικαστηρίου του τόπου κατοικίας του διοικούμενου. Το έλλειμα δικαστικής προστασίας που δημιουργείται, κατ’ αυτόν τον τρόπο, με τη συρρίκνωση της πρόσβασης στη δικαιοσύνη, επιχειρείται να καλυφθεί με την εισαγωγή των τηλεματικών δικών, δηλαδή της εξ αποστάσεως και με τη χρήση των νέων τεχνολογιών δίκης, εξέλιξη η οποία έχει γεννήσει ιδιαίτερο προβληματισμό σχετικά με το κατά πόσο διευκολύνει πράγματι ή τελικά δυσχεραίνει την πρόσβαση στο δικαστήριο, δεδομένης, για παράδειγμα, της έλλειψης εξοικείωσης μεγάλων κατηγοριών πολιτών με την τεχνολογία. Ωστόσο, αναλύοντας κανείς, στην περίπτωση αυτή, τα υπέρ και τα κατά της ψηφιοποίησης της δικαιοσύνης (δεδομένου ότι το να δικάζεται ένας πολίτης εξ αποστάσεως θα μπορούσε, υπό προϋποθέσεις, να διευκολύνει πράγματι μία κατάσταση), θα έπρεπε, πρώτα απ’ όλα, να αναρωτηθεί αν το συνολικότερο πλαίσιο πρόσβασης και απονομής της δικαιοσύνης, όπως αυτό βαθμιαία διαμορφώνεται σήμερα, είναι τέτοιο, ώστε να ικανοποιεί τελικά το δικαίωμα δικαστικής προστασίας. Έτσι, για παράδειγμα, αν αναλογιστεί κανείς την πολυσύνθετη φορολογική νομοθεσία, την υποχρέωση προσφυγής στην ενδικοφανή διαδικασία, προκειμένου να αχθεί μία φορολογική διαφορά στο δικαστήριο, αλλά και την κατεύθυνση που δίνεται με τον νέο ΚΦΔ περί διεκπεραίωσης της όποιας φορολογικής διαφοράς σε επίπεδο διοίκησης και όχι δικαστηρίου, εύκολα θα καταλήξει στο συμπέρασμα ότι τελικά, εν τοις πράγμασι, ένας μικρός μόνο αριθμός φορολογικών διαφορών φτάνει προς επίλυση ενώπιον ενός δικαστηρίου, ενώ, όσον αφορά τις κοινωνικοασφαλιστικές διαφορές, ο ρυθμός με τον οποίο άγονται ενώπιον των δικαστηρίων βαίνει μειούμενος, αφενός μεν, διότι η πολυνομία των ταμείων και η καθυστέρηση στη διεκπεραίωση των συνταξιοδοτικών υποθέσεων μετά την απορρόφησή τους από τον Ε.Φ.Κ.Α. λειτουργούν αποτρεπτικά, αφετέρου δε, διότι η εξαντλητική νομοθέτηση, όπως με τους ν. 4387/2016 και 4808/2021, έχει στενέψει τα περιθώρια δικαστικής αμφισβήτησής τους. Σχετικώς, αξίζει να αναφερθεί ότι στο ως άνω παράδειγμα της UnitedHealth, ένας από τους λόγους που οι περιπτώσεις απόρριψης των ασφαλισμένων σπανίως έφθαναν στη δικαιοσύνη, ήταν η προηγούμενη υποχρεωτική τήρηση μίας εξαντλητικής και χρονοβόρας διοικητικής διαδικασίας, κατά τη διάρκεια της οποίας πολλοί από τους πάσχοντες τελικά απεβίωναν. Με δεδομένη την ευρωπαϊκή και διεθνή εμπειρία, είναι βέβαιο ότι η τάση μεταχείρισης αυτών των διαφορών, οι οποίες ουδεμία σχέση έχουν με τον προαναφερθέντα στόχο περί προσέλκυσης επενδύσεων, θα είναι η υπαγωγή τους στη διαμεσολάβηση, ενώ βαθμιαία -και εδώ επιφυλάσσεται πρωταγωνιστικός ρόλος στην τεχνολογία- ρόλο διαμεσολαβητή θα παίζει ο αλγόριθμος της τεχνητής νοημοσύνης (βλ. Cyberjustice Laboratory of Montreal). Αναρωτιέται, όμως, κανείς τελικά, όταν για διαφορές όπως οι ανωτέρω, που αφορού αναμφισβήτητα την πλειοψηφία των πολιτών, στενεύει κατ’ αυτόν τον τρόπο το περιθώριο δικαστικής αμφισβήτησής τους, πόσο ικανοποιείται στ’ αλήθεια το δικαίωμά τους για δικαστική προστασία; Και αυτός πρέπει να είναι ο πυρήνας της όποιας επιστημονικής συζήτησης, που δεν πρέπει να υπονομεύεται ούτε να υποτιμάται προς όφελος μίας μονομερώς προσανατολισμένης επιτάχυνσης στην απονομή της δικαιοσύνης.

Φ. Σωτηριάδου

[1] European Parliament legislative resolution of 13 March 2024 on the proposal for a regulation of the European Parliament and of the Council on laying down harmonized rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD))

[2] Όπως σημειώνεται στη Λευκή Βίβλο για την Τεχνητή Νοημοσύνη [Βρυξέλλες, 19.2.2020 COM (2020) 65 final] : «Οι επενδύσεις στην έρευνα και την καινοτομία στην Ευρώπη εξακολουθούν να αποτελούν κλάσμα των δημόσιων και ιδιωτικών επενδύσεων σε άλλες περιοχές του κόσμου … Ως απάντηση, η Ευρώπη πρέπει να αυξήσει σημαντικά το επίπεδο των επενδύσεων», ενώ την ίδια στιγμή διαπιστώνεται ότι «Η Ευρώπη κατέχει μεγάλες ποσότητες δεδομένων του δημόσιου τομέα, το δυναμικό των οποίων δεν αξιοποιείται επαρκώς». Σύμφωνα δε, με τον στόχο που θέτει η Λευκή Βίβλος για την ΤΝ για ένα «οικοσύστημα αριστείας», που θα μπορεί να στηρίξει την ανάπτυξη και τη διείσδυση της ΤΝ σε ολόκληρη την οικονομία και τη δημόσια διοίκηση της ΕΕ, απαιτείται, μεταξύ άλλων, οι δημόσιες διοικήσεις, τα νοσοκομεία, οι υπηρεσίες κοινής ωφέλειας και άλλοι τομείς δημόσιου συμφέροντος να αρχίσουν να χρησιμοποιούν ταχέως στις δραστηριότητές τους προϊόντα και υπηρεσίες που βασίζονται στη ΤΝ.

[3] https://www.euronews.com/business/2023/05/26/why-has-germany-gone-into-recession,https://economyfinance.ec.europa.eu/economic-surveillance-eu-economies/germany/economic-forecast-germany_en

[4] https://www.fortunegreece.com/article/ipa-kina-o-antagonismos-gia-tin-igemonia- vithizei-tin-pagkosmia-oikonomia/

[5] Μόλις πρόσφατα, η Microsoft ανακοίνωσε τη μεγαλύτερη μέχρι σήμερα επένδυσή της στον κλάδο της Τεχνητής Νοημοσύνης, ύψους 3,3 δισ. ευρώ, έως το τέλος το 2025, με έδρα τη Γερμανία και αντικείμενο τη διεύρυνση των δυνατοτήτων για τα κέντρα δεδομένων της σε εφαρμογές σχετικά με την τεχνητή νοημοσύνη και το υπολογιστικό νέφος (cloud computing), ενώ τον Απρίλιο του 2024 η Ευρωπαϊκή Επιτροπή δημοσίευσε προσκλήσεις υποβολής προτάσεων στο πλαίσιο του προγράμματος εργασίας «Ορίζων Ευρώπη» 2023-2024, για την ψηφιακή, βιομηχανική και διαστημική έρευνα και καινοτομία στον τομέα της τεχνητής νοημοσύνης (ΤΝ) και των κβαντικών τεχνολογιών, ύψους 112 εκατ. ευρώ (https://digital-strategy.ec.europa.eu/el/news/commission-invests-eu112-million-ai- and-quantum-research-and-innovation).

[6] Ήδη, εκφράζεται σοβαρή ανησυχία, για την αυξημένη ενεργειακή ζήτηση που απαιτούν τα data centers που χρησιμοποιούνται για την εκπαίδευση και λειτουργία μοντέλων όπως το GPT, με ό,τι αυτό μπορεί να επάγεται για την ικανότητα κάθε οικονομίας να ανταποκριθεί στην παραπάνω ζήτηση, αλλά και στην αξιοποίηση άλλων μορφών ενέργειας, όπως πυρηνικής ενέργειας, φυσικού αερίου και εναλλακτικών μορφών ενέργειας (βλ. Η τεχνητή νοημοσύνη παρασύρει τον πλανήτη προς μια ενεργειακή κρίση https://www.forbesgreece.gr/texnologia/3811637).

[7] Παρά το γεγονός ότι είναι κυρίαρχη η άποψη ότι η τεχνητή νοημοσύνη δεν είναι σε θέση να κάνει δικαστικές κρίσεις και αυτό, διότι, τουλάχιστον στην παρούσα φάση, δεν «κατανοεί» τις σχέσεις αιτιότητας, ωστόσο, στην Εσθονία, για παράδειγμα, οι μικροδιαφορές κάτω των 7.000 ευρώ επιχειρείται να εκδικάζονται από έναν δικαστή ρομπότ (Eric Nillier, ‘Can AI Be a Fair Judge in Court? Estonia Thinks So’ (Wired, 25 March 2019).

[8] https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm και https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[9] https://www.europarl.europa.eu/doceo/document/O-9-2022-000028_EL.html [10] https://www.scrippsnews.com/politics/health-care/unitedhealth-sued-for- allegedly-using-ai-to-deny-elderly-patients-care, https://www.statnews.com/2023/11/14/unitedhealth-class-action-lawsuit-algorithm- medicare-advantage/

[11] Έτσι, για παράδειγμα, μολονότι στην προαναφερθείσα AI ACT, η χρήση βιομετρικών δεδομένων κατ’ αρχήν απαγορεύεται, κατ’ εξαίρεση και υπό αυστηρές προϋποθέσεις, επιτρέπεται. Η συλλογή δε των βιομετρικών δεδομένων, τα οποία θα «τροφοδοτούν» τον αλγόριθμο έχει ήδη γίνει σε προγενέστερο χρόνο και επί τη βάσει άλλων ρυθμιστικών πλαισίων, όπως για παράδειγμα βάσει του νέου Συμφώνου για τη Μετανάστευση και το Άσυλο, το οποίο επιτρέπει τη λήψη βιομετρικών δεδομένων από ανήλικους, ηλικίας από 7 ετών και άνω. Βλ. επιπλέον τη μελέτη του Ευρωπαϊκού Κοινοβουλίου «The impact of the General Data Protection Regulation (GDPR) on artificial intelligence». [12] Βλ. CEPEJ «Ευρωπαϊκός Χάρτης Δεοντολογίας για τη χρήση της Τεχνητής Νοημοσύνης στα δικαστικά συστήματα και στο περιβάλλον τους», σελ. 59-63, καθώς και το άρθρο 22 του Γενικού Κανονισμού για την προστασία δεδομένων (Κανονισμός ΕΕ 2016/679) σε συνδυασμό με την επεξηγηματική έκθεση αυτού, με το οποίο ρυθμίζεται επί του παρόντος το δικαίωμα προσώπου που υπόκειται σε αυτοματοποιημένη απόφαση.

Ακολουθήστε το dikastiko.gr στο Google News και δείτε πρώτοι όλες τις ειδήσεις

Διαβάστε όλες τις τελευταίες ειδήσεις από την Ελλάδα και τον Κόσμο στο dikastiko.gr

ΤΕΛΕΥΤΑΙΑ ΝΕΑ