Στη συνεδρίαση της 19ης Μαΐου 2021, στην οποία συμμετείχαν 22 άτομα, με συμμετοχή από την Ελλάδα του Π.Περάκη, του Αλέξη Αναγνωστάκη, του Στάθη Μίχου και της Ηλιάνας Κωστή, το κύριο θέμα της ατζέντας ήταν:
Σχολιασμός της δημοσιευθείσας πρότασης Κανονισμού για την τεχνητή νοημοσύνη (ΤΝ) από την Ευρωπαϊκή Επιτροπή: Ο Κανονισμός προβλέπει μεταξύ άλλων, την κατηγοριοποίηση εφαρμογών ΤΝ αναλόγως του ρίσκου από τη χρήση τους. Ορισμένες εφαρμογές θεωρούνται μη αποδεκτού ρίσκου, άλλες υψηλού και άλλες περιορισμένου ή ελάχιστου ρίσκου, με αντίστοιχες προβλέψεις για κάθε κατηγορία. Οι εφαρμογές για την Δικαιοσύνη και την τήρηση του Νόμου θεωρούνται υψηλού ρίσκου.
Ο Κανονισμός προβλέπει και Πανευρωπαϊκό Όργανο εποπτείας του και υψηλά πρόστιμα για μη συμμόρφωση. Κατά τη συνεδρίαση διατυπώθηκε εκ νέου η πρόταση που είχε διατυπωθεί και την προηγούμενη ημέρα κατά τη συνεδρίαση της Επιτροπής Future of legal profession and legal services, ήτοι η δημιουργία μίας ειδικής ομάδας (task force) η οποία θα αποτελείται από μέλη διαφορετικών επιτροπών και η οποία θα συνεργαστεί προκειμένου να κατατεθεί η τοποθέτηση του CCBE στην Ευρωπαϊκή Επιτροπή έως τις 6/7.
Η ειδική ομάδα προτάθηκε να συσταθεί από τις Επιτροπές Future of the legal Profession, IT Law, Surveillance, Migration, Private Law και ILS. Ως προς την πρόταση του Κανονισμού σχολιάστηκαν τα ακόλουθα: το Παράρτημα ΙΙΙ είναι εξαιρετικής σημασίας καθώς αναγνωρίζει τα υψηλού ρίσκου συστήματα τεχνητής νοημοσύνης, ήτοι αυτά που χρησιμοποιούνται κατά την επιβολή του νόμου (συμπεριλαμβανομένων των βιομετρικών συστημάτων ταυτοποίησης), αυτά που αφορούν στη μετανάστευση, το άσυλο και τον συνοριακό έλεγχο, καθώς και στη διαχείριση της δικαιοσύνης.
Ως προς το α. 8 του Παραρτήματος ΙΙΙ, ήτοι ως προς τα υψηλού ρίσκου συστήματα τεχνητής νοημοσύνης τα οποία χρησιμοποιούνται στη δικαιοσύνη και τις δημοκρατικές διαδικασίες, συζητήθηκε εάν το άρθρο αφορά σε συστήματα που υποβοηθούν ή σε συστήματα που λαμβάνουν την απόφαση για λογαριασμό του δικαστή, ενώ συνομολογήθηκε ότι η διατύπωση του άρθρου είναι προβληματική και θα πρέπει να αναθεωρηθεί.
Η ελληνική αποστολή, μέσω της κ. Κωστή, επανέλαβε την τοποθέτηση της ότι απαιτείται μεγάλη προσοχή ως προς το «συγκεκριμένο σύνολο γεγονότων» επί του οποίου ένα σύστημα τεχνητής νοημοσύνης λαμβάνει απόφαση καθώς όσον αφορά στη διαδικασία ενώπιον της δικαιοσύνης αυτό δύναται να αλλάξει πολλές φορές και πως η βούληση του νομοθέτη αφορά σε συστήματα υποβοήθησης και όχι σε συστήματα που λαμβάνουν αυτόνομα αποφάσεις, βούληση η οποία θα πρέπει να αποτυπωθεί με σαφήνεια, απαγορεύοντας τη χρήση συστημάτων που λαμβάνουν αυτόνομα απόφαση.
Ο κ. Αναγνωστάκης τοποθετήθηκε αναφερόμενος στη σύνδεση του συγκεκριμένου άρθρου και του α. 22 του Γενικού Κανονισμού Προστασίας Δεδομένων σύμφωνα με το οποίο «το υποκείμενο των δεδομένων έχει το δικαίωμα να μην υπόκειται σε απόφαση που λαμβάνεται αποκλειστικά βάσει αυτοματοποιημένης επεξεργασίας, συμπεριλαμβανομένης της κατάρτισης προφίλ, η οποία παράγει έννομα αποτελέσματα που το αφορούν ή το επηρεάζει σημαντικά με παρόμοιο τρόπο», πρόβλεψη η οποία θα πρέπει να ληφθεί υπ’όψιν στον παρόντα Κανονισμό.
Ο κ. Αναγνωστάκης τόνισε, επίσης, πως η Πρόταση της Ευρωπαϊκής Επιτροπής θα πρέπει να ελεγχθεί ενδελεχώς για τυχόν ασυμβίβαστα αυτής με την υπάρχουσα ευρωπαική νομοθεσία περί των δικαιωμάτων και των ελευθεριών, καθώς και να διασφαλιστεί η διαφάνεια και η αποτελεσματικότητα της τεχνητής νοημοσύνης όσον αφορά στην δυνατότητα έννομης προστασίας των πολιτών από "αποφάσεις" αυτής. .
Ως προς τα χαμηλού ρίσκου συστήματα τεχνητής νοημοσύνης σχολιάστηκε ότι θα πρέπει να υφίσταται η γενική απαίτηση της διαφάνειας ως προς τη λειτουργία τους, και ως προς το α. 6 του Παραρτήματος 3 ως προς τα υψηλού ρίσκου συστήματα τεχνητής νοημοσύνης τα οποία χρησιμοποιούνται για την επιβολή του νόμου, τονίστηκε ότι θα πρέπει να ισχύσουν συγκεκριμένες προϋποθέσεις ως προς τη χρήση τους προκειμένου να αποφευχθεί ο κίνδυνος προσβολής των θεμελιωδών δικαιωμάτων.