Σήμερα τίθεται σε ισχύ ο ευρωπαϊκός κανονισμός για την τεχνητή νοημοσύνη, ο πρώτος ολοκληρωμένος κανονισμός για την τεχνητή νοημοσύνη (ΤΝ) στον κόσμο. Ο κανονισμός για την ΤΝ σχεδιάστηκε κατά τρόπον ώστε η ΤΝ που αναπτύσσεται και χρησιμοποιείται στην ΕΕ να είναι αξιόπιστη, με εγγυήσεις για την προστασία των θεμελιωδών δικαιωμάτων των πολιτών.

 

Ο κανονισμός αποσκοπεί στη δημιουργία μιας εναρμονισμένης εσωτερικής αγοράς για την ΤΝ στην ΕΕ, ενθαρρύνοντας την υιοθέτηση της ΤΝ και δημιουργώντας ένα ευνοϊκό περιβάλλον για την καινοτομία και τις επενδύσεις.

Η πράξη για την τεχνητή νοημοσύνη εισάγει έναν μελλοντοστραφή ορισμό της τεχνητής νοημοσύνης, με βάση μια προσέγγιση της ασφάλειας των προϊόντων και βάσει κινδύνου στην ΕΕ:

Ελάχιστος κίνδυνος: Τα περισσότερα συστήματα τεχνητής νοημοσύνης, όπως τα συστήματα συστάσεων με δυνατότητα τεχνητής νοημοσύνης και τα φίλτρα ανεπιθύμητης αλληλογραφίας, εμπίπτουν σε αυτήν την κατηγορία. Τα συστήματα αυτά δεν αντιμετωπίζουν υποχρεώσεις βάσει του νόμου για την τεχνητή νοημοσύνη λόγω του ελάχιστου κινδύνου που ενέχουν για τα δικαιώματα και την ασφάλεια των πολιτών. Οι εταιρείες μπορούν να υιοθετήσουν εθελοντικά πρόσθετους κώδικες δεοντολογίας.

Συγκεκριμένος κίνδυνος διαφάνειας: Τα συστήματα τεχνητής νοημοσύνης, όπως τα chatbots, πρέπει να αποκαλύπτουν σαφώς στους χρήστες ότι αλληλεπιδρούν με ένα μηχάνημα. Ορισμένο περιεχόμενο που παράγεται από τεχνητή νοημοσύνη, συμπεριλαμβανομένων των deep fakes, πρέπει να επισημαίνεται ως τέτοιο και οι χρήστες πρέπει να ενημερώνονται όταν χρησιμοποιούνται βιομετρικά συστήματα κατηγοριοποίησης ή αναγνώρισης συναισθημάτων. Επιπλέον, οι πάροχοι θα πρέπει να σχεδιάζουν συστήματα κατά τρόπο ώστε το συνθετικό περιεχόμενο ήχου, βίντεο, κειμένου και εικόνων να επισημαίνεται σε μηχαναγνώσιμο μορφότυπο και να ανιχνεύεται ως τεχνητά παραγόμενο ή παραποιημένο.

Υψηλός κίνδυνος: Τα συστήματα ΤΝ που χαρακτηρίζονται ως υψηλού κινδύνου θα πρέπει να συμμορφώνονται με αυστηρές απαιτήσεις, συμπεριλαμβανομένων των συστημάτων μετριασμού του κινδύνου, της υψηλής ποιότητας των συνόλων δεδομένων, της καταγραφής δραστηριοτήτων, της λεπτομερούς τεκμηρίωσης, των σαφών πληροφοριών για τους χρήστες, της ανθρώπινης εποπτείας και του υψηλού επιπέδου αξιοπιστίας, ακρίβειας και κυβερνοασφάλειας. Τα ρυθμιστικά δοκιμαστήρια θα διευκολύνουν την υπεύθυνη καινοτομία και την ανάπτυξη συμμορφούμενων συστημάτων ΤΝ. Αυτά τα συστήματα ΤΝ υψηλού κινδύνου περιλαμβάνουν, για παράδειγμα, συστήματα ΤΝ που χρησιμοποιούνται για προσλήψεις ή για την αξιολόγηση του κατά πόσον κάποιος δικαιούται να λάβει δάνειο ή να διαχειρίζεται αυτόνομα ρομπότ.

Μη αποδεκτός κίνδυνος: Τα συστήματα τεχνητής νοημοσύνης που θεωρούνται σαφής απειλή για τα θεμελιώδη δικαιώματα των ανθρώπων θα απαγορευτούν. Αυτό περιλαμβάνει συστήματα ή εφαρμογές τεχνητής νοημοσύνης που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούληση των χρηστών, όπως παιχνίδια που χρησιμοποιούν φωνητική βοήθεια που ενθαρρύνουν την επικίνδυνη συμπεριφορά ανηλίκων, συστήματα που επιτρέπουν την «κοινωνική βαθμολόγηση» από κυβερνήσεις ή εταιρείες και ορισμένες εφαρμογές προληπτικής αστυνόμευσης. Επιπλέον, ορισμένες χρήσεις βιομετρικών συστημάτων θα απαγορευτούν, για παράδειγμα τα συστήματα αναγνώρισης συναισθημάτων που χρησιμοποιούνται στον χώρο εργασίας και ορισμένα συστήματα κατηγοριοποίησης ατόμων ή η εξ αποστάσεως βιομετρική ταυτοποίηση σε πραγματικό χρόνο για σκοπούς επιβολής του νόμου σε δημόσια προσβάσιμους χώρους (με περιορισμένες εξαιρέσεις).

Για να συμπληρώσει αυτό το σύστημα, ο νόμος για την τεχνητή νοημοσύνη εισάγει επίσης κανόνες για τα λεγόμενα μοντέλα τεχνητής νοημοσύνης γενικής χρήσης, τα οποία είναι εξαιρετικά ικανά μοντέλα τεχνητής νοημοσύνης που έχουν σχεδιαστεί για να εκτελούν ευρύ φάσμα εργασιών, όπως η παραγωγή κειμένου που μοιάζει με άνθρωπο. Τα μοντέλα τεχνητής νοημοσύνης γενικής χρήσης χρησιμοποιούνται όλο και περισσότερο ως συστατικά στοιχεία εφαρμογών τεχνητής νοημοσύνης. Η πράξη για την τεχνητή νοημοσύνη θα διασφαλίσει τη διαφάνεια κατά μήκος της αξιακής αλυσίδας και θα αντιμετωπίσει τους πιθανούς συστημικούς κινδύνους των πλέον ικανών μοντέλων.

Εφαρμογή και επιβολή των κανόνων ΤΝ

Τα κράτη μέλη έχουν προθεσμία έως τις 2 Αυγούστου 2025 για να ορίσουν εθνικές αρμόδιες αρχές, οι οποίες θα επιβλέπουν την εφαρμογή των κανόνων για τα συστήματα ΤΝ και θα ασκούν δραστηριότητες εποπτείας της αγοράς. Το Γραφείο ΤΝ της Επιτροπής θα είναι ο βασικός φορέας εφαρμογής της πράξης για την τεχνητή νοημοσύνη σε επίπεδο ΕΕ, καθώς και ο φορέας επιβολής των κανόνων για τα μοντέλα τεχνητής νοημοσύνης γενικής χρήσης.

Τρία συμβουλευτικά όργανα θα υποστηρίξουν την εφαρμογή των κανόνων. Το Ευρωπαϊκό Συμβούλιο Τεχνητής Νοημοσύνης θα διασφαλίσει την ομοιόμορφη εφαρμογή της πράξης για την τεχνητή νοημοσύνη σε όλα τα κράτη μέλη της ΕΕ και θα ενεργεί ως ο κύριος φορέας συνεργασίας μεταξύ της Επιτροπής και των κρατών μελών. Μια επιστημονική ομάδα ανεξάρτητων εμπειρογνωμόνων θα παρέχει τεχνικές συμβουλές και στοιχεία σχετικά με την επιβολή. Ειδικότερα, αυτός ο πίνακας μπορεί να εκδίδει ειδοποιήσεις προς το Γραφείο ΤΝ σχετικά με κινδύνους που σχετίζονται με μοντέλα ΤΝ γενικής χρήσης. Το Γραφείο Τεχνητής Νοημοσύνης μπορεί επίσης να λάβει καθοδήγηση από ένα συμβουλευτικό σώμα, το οποίο αποτελείται από ένα ποικίλο σύνολο ενδιαφερόμενων μερών.

Στις εταιρείες που δεν συμμορφώνονται με τους κανόνες θα επιβάλλονται πρόστιμα. Τα πρόστιμα θα μπορούσαν να ανέλθουν έως και στο 7% του παγκόσμιου ετήσιου κύκλου εργασιών για παραβιάσεις απαγορευμένων εφαρμογών τεχνητής νοημοσύνης, έως 3% για παραβιάσεις άλλων υποχρεώσεων και έως 1,5% για παροχή ανακριβών πληροφοριών.

Επόμενα βήματα

Οι περισσότεροι κανόνες του νόμου για την τεχνητή νοημοσύνη θα αρχίσουν να εφαρμόζονται στις 2 Αυγούστου 2026. Ωστόσο, οι απαγορεύσεις των συστημάτων ΤΝ που θεωρείται ότι παρουσιάζουν απαράδεκτο κίνδυνο θα ισχύουν ήδη μετά από έξι μήνες, ενώ οι κανόνες για τα λεγόμενα μοντέλα ΤΝ γενικής χρήσης θα εφαρμόζονται μετά από 12 μήνες.

Για να γεφυρωθεί η μεταβατική περίοδος πριν από την πλήρη εφαρμογή, η Επιτροπή δρομολόγησε το σύμφωνο για την τεχνητή νοημοσύνη. Η πρωτοβουλία αυτή καλεί τους φορείς ανάπτυξης τεχνητής νοημοσύνης να υιοθετήσουν οικειοθελώς βασικές υποχρεώσεις του νόμου για την τεχνητή νοημοσύνη πριν από τις νόμιμες προθεσμίες.

Η Επιτροπή αναπτύσσει επίσης κατευθυντήριες γραμμές για τον καθορισμό και τη λεπτομερή εφαρμογή της πράξης για την τεχνητή νοημοσύνη και τη διευκόλυνση των μέσων συρρύθμισης, όπως τα πρότυπα και οι κώδικες πρακτικής. Η Επιτροπή δημοσίευσε πρόσκληση εκδήλωσης ενδιαφέροντος για συμμετοχή στην κατάρτιση του πρώτου κώδικα ορθής πρακτικής για την τεχνητή νοημοσύνη γενικής χρήσης, καθώς και πολυμερή διαβούλευση, δίνοντας την ευκαιρία σε όλα τα ενδιαφερόμενα μέρη να εκφράσουν τη γνώμη τους σχετικά με τον πρώτο κώδικα δεοντολογίας βάσει του νόμου για την τεχνητή νοημοσύνη.

Η Εκτελεστική Αντιπρόεδρος για μια Ευρώπη Έτοιμη για την Ψηφιακή Εποχή κ. Μαργκρέιτε Βέστεϊγιερ δήλωσε σχετικά: «Η ΤΝ μπορεί να αλλάξει τον τρόπο που δουλεύουμε και ζούμε και υπόσχεται τεράστια οφέλη για τους πολίτες, την κοινωνία μας και την ευρωπαϊκή οικονομία. Η ευρωπαϊκή προσέγγιση όσον αφορά αυτή την τεχνολογία είναι ανθρωποκεντρική και διασφαλίζει την προστασία των δικαιωμάτων όλων των πολιτών. Με τον κανονισμό για την ΤΝ, η ΕΕ έχει κάνει ένα σημαντικό βήμα ώστε η υιοθέτηση της τεχνολογίας ΤΝ να συμμορφώνεται με τους κανόνες της ΕΕ».

Ο Επίτροπος Εσωτερικής Αγοράς κ. Τιερί Μπρετόν δήλωσε τα εξής: «Η σημερινή μέρα αποτελεί σημαντικό βήμα και αναδεικνύει τον ηγετικό ρόλο της Ευρώπης στον τομέα της αξιόπιστης ΤΝ. Με την έναρξη ισχύος του κανονισμού για την ΤΝ, η ευρωπαϊκή δημοκρατία θεσπίζει ένα αποτελεσματικό, αναλογικό και πρωτοπόρο παγκόσμιο πλαίσιο για την ΤΝ, το οποίο αντιμετωπίζει τους κινδύνους και λειτουργεί ως εφαλτήριο για τις ευρωπαϊκές νεοφυείς επιχειρήσεις ΤΝ».

Εττικέτες:
έρευνα ΕΕ