AI Act: Οι Κανόνες του Παιχνιδιού για την Τεχνητή Νοημοσύνη

Τεχνητή Νοημοσύνη: Το Νέο "GDPR" της Ευρώπης;

ΕΥΡΩΠΑΪΚΉ ΝΟΜΟΘΕΣΊΑ

Αικατερίνη Ιωαννίδου

10/22/2025

My post content

Η νομοθεσία της Ευρωπαϊκής Ένωσης για την Τεχνητή Νοημοσύνη (ΤΝ) είναι ο Κανονισμός (ΕΕ) 2024/1689, γνωστός ως AI Act (Πράξη για την Τεχνητή Νοημοσύνη). Πρόκειται για τον πρώτο ολοκληρωμένο νομικό πλαίσιο παγκοσμίως για τη ρύθμιση της ΤΝ. Ο Κανονισμός AI Act αναμένεται να λειτουργήσει ως ένα παγκόσμιο πρότυπο, όπως συνέβη και με τον Γενικό Κανονισμό για την Προστασία Δεδομένων (GDPR).

1. Η Φιλοσοφία του AI Act: Όλα για τον "Κίνδυνο" και τα Θεμελιώδη Δικαιώματα.

Ο Κανονισμός (ΕΕ) 2024/1689 δημοσιεύθηκε στην Επίσημη Εφημερίδα της ΕΕ στις 12 Ιουλίου 2024 και θεσπίζει εναρμονισμένους κανόνες σχετικά με την Τεχνητή Νοημοσύνη.

Σκοπός του Kανονισμού είναι η προώθηση της υιοθέτησης ανθρωποκεντρικής και αξιόπιστης ΤΝ, διασφαλίζοντας παράλληλα υψηλό επίπεδο προστασίας της υγείας, της ασφάλειας και των θεμελιωδών δικαιωμάτων των πολιτών, όπως αυτά κατοχυρώνονται στον Χάρτη των Θεμελιωδών Δικαιωμάτων της ΕΕ.

Η προσέγγιση που υιοθετείται βασίζεται στην εξέταση των σχετιζόμενων κινδύνων (Risk-Based Approach). Οι υποχρεώσεις που επιβάλλονται στα συστήματα ΤΝ εξαρτώνται από το πόσο μεγάλος είναι ο δυνητικός τους κίνδυνος για την κοινωνία και τα δικαιώματα των πολιτών.

2. Οι Τέσσερις Ζώνες "Κινδύνου": Από τις Ολικές "Απαγορεύσεις" στα Deepfakes.

Ο Κανονισμός κατηγοριοποιεί τα συστήματα ΤΝ σε τέσσερα επίπεδα κινδύνου, με αντίστοιχες νομικές υποχρεώσεις:

Α. Μη Αποδεκτός Κίνδυνος (Unacceptable Risk) – Απαγορεύονται

Αυτή η κατηγορία περιλαμβάνει συστήματα ΤΝ που θεωρείται ότι απειλούν σαφώς τα θεμελιώδη δικαιώματα ή χειραγωγούν τους πολίτες.

Χαρακτηριστικά παραδείγματα απαγορεύσεων (Εφαρμογή από 2 Φεβρουαρίου 2025):

-Συστήματα κοινωνικής βαθμολόγησης (Social Scoring) από δημόσιες αρχές.

-Τεχνικές χειραγώγησης της συμπεριφοράς ανθρώπων ή ομάδων που προκαλούν σωματική ή ψυχολογική βλάβη.

-Βιομετρική κατηγοριοποίηση φυσικών προσώπων (π.χ., βάσει ευαίσθητων χαρακτηριστικών όπως πολιτικές πεποιθήσεις, θρησκεία, φυλή, σεξουαλικός προσανατολισμός).

-Μη στοχοθετημένη συλλογή εικόνων προσώπου από το διαδίκτυο ή από κλειστό κύκλωμα τηλεόρασης (CCTV) για τη δημιουργία βάσεων δεδομένων αναγνώρισης προσώπου.

Β. Υψηλός Κίνδυνος (High Risk) – Αυστηρές Υποχρεώσεις

Αυτά τα συστήματα επιτρέπονται, αλλά υπόκεινται σε πολύ αυστηρές απαιτήσεις πριν τεθούν στην αγορά.

Οι τομείς εφαρμογής τους εντοπίζονται στα:

-Συστήματα ΤΝ που χρησιμοποιούνται σε κρίσιμες υποδομές (π.χ., μεταφορές, ενέργεια).

-Συστήματα ΤΝ σε εκπαίδευση (π.χ., αξιολόγηση εισαγωγής σε εκπαιδευτικά ιδρύματα).

-Συστήματα ΤΝ σε προσλήψεις ή διαχείριση προσωπικού (π.χ., αυτόματο φιλτράρισμα βιογραφικών).

-Συστήματα ΤΝ για απονομή δικαιοσύνης και επιβολή του νόμου (π.χ., εκτίμηση κινδύνου υποτροπής).

Οι Βασικές Απαιτήσεις που πρέπει να πληρούνται στα συστήματα αυτά είναι μεταξύ άλλων η ύπαρξη τεχνικής τεκμηρίωσης, η καταγραφή των ενεργειών, η διαφάνεια, η ανθρώπινη επίβλεψη και η ακρίβεια (rigorous data governance).

Γ. Περιορισμένος Κίνδυνος & Χαμηλός Κίνδυνος

Περιορισμένος Κίνδυνος (Π.χ. Chatbots, Deepfakes): Απαιτούνται μόνο υποχρεώσεις διαφάνειας. Οι χρήστες πρέπει να ενημερώνονται ότι αλληλεπιδρούν με ΤΝ ή ότι το περιεχόμενο (εικόνα, βίντεο, ήχος) είναι τεχνητά παραγμένο (deepfake).

-Χαμηλός Κίνδυνος (Π.χ. Φίλτρα spam): Δεν υπόκεινται σε συγκεκριμένες ρυθμίσεις, ενθαρρύνονται οι κώδικες δεοντολογίας.

3. Τι Αλλάζει για τα "GPAI" Μοντέλα: Υποχρεωτική "Διαφάνεια" και Συστημικός Κίνδυνος.

Ο Κανονισμός εισάγει ειδικές ρυθμίσεις για τα μοντέλα ΤΝ γενικού σκοπού (General-Purpose AI - GPAI).

-Υποχρεώσεις Διαφάνειας: Οι πάροχοι μοντέλων όπως το Gemini, Chatgpt κτλ πρέπει να διασφαλίζουν την τεκμηρίωση και να παρέχουν λεπτομερείς περιλήψεις των δεδομένων που χρησιμοποιήθηκαν για την εκπαίδευση του μοντέλου, συμπεριλαμβανομένης της τήρησης του δικαίου πνευματικής ιδιοκτησίας.

-Συστημικός Κίνδυνος: Τα πολύ μεγάλα μοντέλα που ενδέχεται να προκαλέσουν συστημικό κίνδυνο υπόκεινται σε πρόσθετες υποχρεώσεις παρακολούθησης και διαχείρισης κινδύνου.

4. Το "Χρονοδιάγραμμα" Εφαρμογής του AI Act: Πότε Ξεκινά ο "Νόμος" για την ΤΝ;

Ο Κανονισμός έχει σταδιακή εφαρμογή:

2 Φεβρουαρίου 2025 (6 μήνες από την έναρξη ισχύος)

Απαγορεύσεις (Μη Αποδεκτός Κίνδυνος) τίθενται σε εφαρμογή.

2 Αυγούστου 2025 (12 μήνες από την έναρξη ισχύος)

Κανόνες για τα μοντέλα ΤΝ Γενικού Σκοπού (GPAI) τίθενται σε εφαρμογή.

2 Αυγούστου 2026 (24 μήνες από την έναρξη ισχύος)

Οι βασικοί κανόνες και οι υποχρεώσεις για τα συστήματα Υψηλού Κινδύνου τίθενται σε πλήρη εφαρμογή.