Αστέρια ΑνενεργάΑστέρια ΑνενεργάΑστέρια ΑνενεργάΑστέρια ΑνενεργάΑστέρια Ανενεργά
 

Η Τεχνητή Νοημοσύνη ως έννοια έχει διεισδύσει για τα καλά στη ζωή μας και τις εφαρμογές της τις συναντάμε σε ολοένα και περισσότερους τομείς της καθημερινότητας.

Στην πράξη όμως, όπως και κάθε εργαλείο κοινωνικής συμπεριφοράς μπορεί να χρησιμοποιηθεί σε πιθανές έκνομες ενέργειες. Το νομικό μας οπλοστάσιο όμως είναι στην παρούσα στιγμή αδύνατον να αντιμετωπίσει αυτό νέο φαινόμενο και για αυτό το λόγο το Ευρωπαϊκό Κοινοβούλιο πρωτοπορεί πλέον στην ανάπτυξη και διατύπωση ενός Κανονισμού με σκοπό την ασφαλέστερη χρήση αυτής της καινοτόμου τεχνολογίας που έχει εισβάλλει στη ζωή μας. Τα οφέλη της Τεχνητής Νοημοσύνης είναι γνωστά, όπως για παράδειγμα καλύτερη υγειονομική περίθαλψη, ασφαλέστερη και καθαρότερη μεταφορά, αποτελεσματικότερη παραγωγή, φθηνότερη και βιωσιμότερη ενέργεια. Για την ασφαλή χρήση της όμως τώρα διατυπώνεται για πρώτη φορά από την Ευρωπαϊκή Επιτροπή ένα νέο ρυθμιστικό πλαίσιο που αφορά τα συστήματα τεχνητής νοημοσύνης που μπορούν να χρησιμοποιηθούν σε διαφορετικές εφαρμογές και να αναλυθούν και να ταξινομηθούν ανάλογα με τον κίνδυνο που ενέχουν για τους χρήστες. Τα διαφορετικά επίπεδα κινδύνου θα σημαίνουν περισσότερη ή λιγότερη ρύθμιση. Μόλις εγκριθούν, αυτοί θα είναι οι πρώτοι κανόνες στον κόσμο για την τεχνητή νοημοσύνη.

113 ai 111

Η κυριότερη ασφαλιστική δικλείδα για το Ευρωπαϊκό Κοινοβούλιο συνίσταται στο ότι τα συστήματα τεχνητής νοημοσύνης θα πρέπει να επιβλέπονται από ανθρώπους και όχι από αυτοματισμούς. Αυτό πρακτικά σημαίνει με απλά λόγια πως οι υπολογιστές δεν δύναται να ελέγχουν άλλους υπολογιστές χωρίς την ανθρώπινη παρέμβαση. Αρχικά με βάση την υποδομή των συστημάτων της Τεχνητής Νοημοσύνης αυτό πρακτικά δεν είναι και τόσο πιθανό να γίνει καθώς στα πρώιμα στάδια η συλλογή δεδομένων από τις εφαρμογές AI σίγουρα απαιτεί την ανθρώπινη παρέμβαση μέχρι να φτάσει σε ένα ικανοποιητικό σημείο αυτονομίας. Το Ευρωπαϊκό Κοινοβούλιο όμως ορθά διαβλέπει το μέλλον ευρισκόμενο σε ορθή πορεία καθώς μετά βεβαιότητας προβλέπεται ότι σε ορισμένα χρόνια με τέτοιους ρυθμούς ανάπτυξης της AI για λόγους οικονομίας οι εταιρείες θα παραγκωνίσουν τον ανθρώπινο παράγοντα με αυτοματοποιημένα συστήματα. Επιδιώκοντας λοιπόν να προβεί σε μία πρώτη κωδικοποίηση της AI σε νομοθετικό κείμενο επιδιώκει να καθιερώσει έναν τεχνολογικά ουδέτερο, ενιαίο ορισμό για την τεχνητή νοημοσύνη που θα μπορούσε να εφαρμοστεί σε μελλοντικά συστήματα τεχνητής νοημοσύνης ως κάτωθι αναλύεται με διάφορους κανόνες για διαφορετικά επίπεδα κινδύνου:1

1 https://www.europarl.europa.eu/news/el/headlines/society/20230601STO93804/praxi-technitis-noimosunis-tis-ee-protos-kanonismos-gia-tin-techniti-noimosuni

 115 HUM 1

Απαράδεκτος κίνδυνος

Τα συστήματα τεχνητής νοημοσύνης απαράδεκτου κινδύνου είναι συστήματα που θεωρούνται απειλή για τους ανθρώπους και θα απαγορευθούν. Αυτά περιλαμβάνουν:

γνωστική συμπεριφορική χειραγώγηση ατόμων ή συγκεκριμένων ευάλωτων ομάδων: για παράδειγμα παιχνίδια που ενεργοποιούνται με φωνή που ενθαρρύνουν επικίνδυνη συμπεριφορά στα παιδιά

κοινωνική βαθμολογία: ταξινόμηση ατόμων με βάση τη συμπεριφορά, την κοινωνικοοικονομική κατάσταση, τα προσωπικά χαρακτηριστικά

βιομετρική ταυτοποίηση και κατηγοριοποίηση φυσικών προσώπων

συστήματα βιομετρικής αναγνώρισης σε πραγματικό χρόνο και εξ αποστάσεως, όπως η αναγνώριση προσώπου


Ενδέχεται να επιτρέπονται ορισμένες εξαιρέσεις για σκοπούς επιβολής του νόμου. Τα συστήματα απομακρυσμένης βιομετρικής ταυτοποίησης «σε πραγματικό χρόνο» θα επιτρέπονται σε περιορισμένο αριθμό σοβαρών υποθέσεων, ενώ τα «μετα» απομακρυσμένα βιομετρικά συστήματα ταυτοποίησης, όπου η ταυτοποίηση γίνεται μετά από σημαντική καθυστέρηση, θα επιτρέπεται να διώκουν σοβαρά εγκλήματα και μόνο μετά από δικαστική έγκριση.

Υψηλός κίνδυνος

Τα συστήματα τεχνητής νοημοσύνης που επηρεάζουν αρνητικά την ασφάλεια ή τα θεμελιώδη δικαιώματα θα θεωρούνται υψηλού κινδύνου και θα χωρίζονται σε δύο κατηγορίες.

1. Συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται σε προϊόντα που εμπίπτουν στη νομοθεσία της ΕΕ για την ασφάλεια των προϊόντων. Αυτό περιλαμβάνει παιχνίδια, αεροπορία, αυτοκίνητα, ιατρικές συσκευές και ανελκυστήρες.

2. Συστήματα τεχνητής νοημοσύνης που εμπίπτουν σε συγκεκριμένους τομείς που θα πρέπει να καταχωρηθούν σε μια βάση δεδομένων της ΕΕ:

διαχείριση και λειτουργία υποδομών ζωτικής σημασίας

εκπαίδευση και επαγγελματική κατάρτιση

απασχόληση, διαχείριση εργαζομένων και πρόσβαση στην αυτοαπασχόληση

πρόσβαση και απόλαυση βασικών ιδιωτικών υπηρεσιών και δημόσιων υπηρεσιών και παροχών

επιβολή του νόμου

διαχείριση μετανάστευσης, ασύλου και ελέγχου των συνόρων

βοήθεια στη νομική ερμηνεία και εφαρμογή του νόμου.

Όλα τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θα αξιολογηθούν πριν διατεθούν στην αγορά και καθ' όλη τη διάρκεια του κύκλου ζωής τους.

Γενετική τεχνητή νοημοσύνη

Γενετική τεχνητή νοημοσύνη, όπως το ChatGPT, θα πρέπει να συμμορφώνονται με τις προυποθέσεις διαφάνειας:

  • Αποκαλύπτοντας ότι το περιεχόμενο δημιουργήθηκε από AI

  • Σχεδιασμός του μοντέλου για να αποτρέψει τη δημιουργία παράνομου περιεχομένου

  • Δημοσίευση περιλήψεων δεδομένων που προστατεύονται από πνευματικά δικαιώματα που χρησιμοποιούνται για εκπαίδευση

Τα μοντέλα τεχνητής νοημοσύνης γενικής χρήσης, με υψηλό αντίκτυπο, που ενδέχεται να ενέχουν συστημικό κίνδυνο, όπως το πιο προηγμένο μοντέλο τεχνητής νοημοσύνης GPT-4, θα πρέπει να υποβληθούν σε διεξοδικές αξιολογήσεις και να αναφέρουν τυχόν σοβαρά περιστατικά στην Επιτροπή.

117 genai 1

Περιορισμένος κίνδυνος

Τα συστήματα τεχνητής νοημοσύνης περιορισμένου κινδύνου θα πρέπει να συμμορφώνονται με ελάχιστες απαιτήσεις διαφάνειας που θα επιτρέπουν στους χρήστες να λαμβάνουν τεκμηριωμένες αποφάσεις. Αφού αλληλεπιδράσει με τις εφαρμογές, ο χρήστης μπορεί στη συνέχεια να αποφασίσει αν θέλει να συνεχίσει να το χρησιμοποιεί. Οι χρήστες θα πρέπει να ενημερώνονται όταν αλληλεπιδρούν με την τεχνητή νοημοσύνη. Αυτό περιλαμβάνει συστήματα AI που δημιουργούν ή χειρίζονται περιεχόμενο εικόνας, ήχου ή βίντεο (π.χ. deepfakes).

Στις 9 Δεκεμβρίου 2023, τοΚοινοβούλιο κατέληξε σε προσωρινή συμφωνία με το Συμβούλιο σχετικά με την πράξη Τεχνητής Νοημοσύνης. Το συμφωνηθέν κείμενο θα πρέπει τώρα να εγκριθεί επίσημα τόσο από το Κοινοβούλιο όσο και από το Συμβούλιο για να γίνει δίκαιο της ΕΕ.

Διαπιστώνουμε δηλαδή πως έχει αρχίσει να εξελίσσεται σε Ευρωπαϊκό επίπεδο η πρώτη προσπάθεια εννοιολόγησης αλλά και κωδικοποίησης της έννοιας της AI προκειμένου να νομοθετηθούν κανόνες που θα εφαρμοστούν προς ασφαλέστερη χρήση της. Είναι μία χρονοβόρα διαδικασία καθώς τα πρώτα βήματα έχουν αρχίσει ήδη από το 2020 αλλά κινείται προς τη θετική κατεύθυνση. Δεδομένου ότι οι Ευρωπαϊκοί κανονισμοί αποτελούν εκτελεστό δίκαιο, ήτοι εφαρμόζονται απευθείας από τα κράτη μέλη, είναι εξαιρετικά ενδιαφέρον σε νομικό επίπεδο το πως θα εφαρμοστεί και θα ερμηνευθεί ο εν λόγω Κανονισμός από τα εθνικά δικαστήρια των κρατών μελών, τα οποία κράτη είναι πολύ πιθανόν να προβούν στην ψήφιση νόμων που θα συμβιβάζεται με τα δικά τους εθιμικά δίκαια και θα ισχύουν παράλληλα με τον Ευρωπαϊκό Κανονισμό. Κατά την άποψη του γράφοντος το ζήτημα της AI δεν είναι τόσο απλό καθώς πρόκειται για μία διαρκώς εξελισσόμενη πραγματικότητα που αφήνει τον νομοθέτη να τρέχει από πίσω της. Κρίσιμο επίσης ζήτημα είναι η θέσπιση ποινικών κανόνων για την παράνομη χρήση εφαρμογών Τεχνητής Νοημοσύνης είτε με ειδικούς νόμους είτε με ένταξη αυτών στους ισχύοντες Ποινικούς Κώδικες. Μία αρχή έγινε…αναμένουμε τη νομοθετική συνέχεια με εξαιρετικό ενδιαφέρον…..


koutsoukos transparent

 

 

 

 

 

 

 

           EMAIL: Αυτή η διεύθυνση ηλεκτρονικού ταχυδρομείου προστατεύεται από τους αυτοματισμούς αποστολέων ανεπιθύμητων μηνυμάτων. Χρειάζεται να ενεργοποιήσετε τη JavaScript για να μπορέσετε να τη δείτε.