NEWSFLASH...
Ειδήσεις | Δημόσια Διοίκηση
ανάγνωση

Έρχονται μεγάλα ευρωπαϊκά πρόστιμα για εφαρμογές AI «υψηλού κινδύνου»

Έρχονται μεγάλα ευρωπαϊκά πρόστιμα για εφαρμογές AI «υψηλού κινδύνου»

Οι νομοθέτες της Ευρωπαϊκής Ένωσης που καταρτίζουν κανόνες για την εφαρμογή της τεχνητής νοημοσύνης εξετάζουν πρόστιμα έως και 4% του παγκόσμιου ετήσιου κύκλου εργασιών (ή 20 εκατ. ευρώ, εάν είναι μεγαλύτερο) για ένα σύνολο απαγορευμένων περιπτώσεων χρήσης, σύμφωνα με προσχέδιο του κανονισμού που διέρρευσε στα διεθνή μέσα και που αναμένεται να παρουσιαστεί επίσημα την επόμενη εβδομάδα.

Το προσχέδιο επικεντρώνει στις απαιτήσεις συμμόρφωσης για εφαρμογές AI υψηλού κινδύνου, όπου κι αν αυτές συμβούν (όπλα / στρατιωτικές χρήσεις εξαιρούνται, ωστόσο, καθώς τέτοιες περιπτώσεις χρήσης δεν εμπίπτουν στις συνθήκες της ΕΕ). Εντούτοις, δεν είναι απολύτως σαφές από αυτό το προσχέδιο πώς ακτιβώς θα οριστεί ο «υψηλός κίνδυνος».

Ο πρωταρχικός στόχος για την Επιτροπή είναι η ενίσχυση της εμπιστοσύνης του κοινού στην τεχνητή νοημοσύνη, μέσω ενός συστήματος ελέγχων και συμμόρφωσης με τις «αξίες της ΕΕ», προκειμένου να ενθαρρυνθεί η υιοθέτηση του λεγόμενου «αξιόπιστου» και «ανθρωποκεντρικού» AI.

Έτσι, ακόμη και οι κατασκευαστές εφαρμογών τεχνητής νοημοσύνης που δεν θεωρούνται «υψηλού κινδύνου» θα συνεχίσουν να ενθαρρύνονται ώστε να υιοθετήσουν κώδικες συμπεριφοράς - «για την προώθηση της εθελοντικής εφαρμογής των υποχρεωτικών απαιτήσεων που ισχύουν για συστήματα AI υψηλού κινδύνου».

Ένα άλλο κομμάτι του κανονισμού ασχολείται με μέτρα για τη στήριξη της ανάπτυξης της τεχνητής νοημοσύνης στο μπλοκ - ωθώντας τα κράτη μέλη να θεσπίσουν ρυθμιστικά συστήματα στο πλαίσιο των οποίων οι νεοσύστατες και οι μικρομεσαίες επιχειρήσεις θα μπορούν να υποστηριχθούν για ανάπτυξη και δοκιμή συστημάτων AI πριν τα διαθέσουν στην αγορά.

Ορισμένες «πρακτικές» τεχνητής νοημοσύνης αναφέρονται ως απαγορευμένες σύμφωνα με το άρθρο 4 του νόμου, συμπεριλαμβανομένων (εμπορικών) εφαρμογών συστημάτων μαζικής παρακολούθησης και συστημάτων κοινωνικής αξιολόγησης γενικού σκοπού που θα μπορούσαν να οδηγήσουν σε διακρίσεις.

Τα συστήματα τεχνητής νοημοσύνης που έχουν σχεδιαστεί για τον χειρισμό της ανθρώπινης συμπεριφοράς, των αποφάσεων ή των απόψεων με επιζήμιο σκοπό, αναφέρονται επίσης ως απαγορευμένα, όπως και τα συστήματα που χρησιμοποιούν προσωπικά δεδομένα για τη δημιουργία προβλέψεων προκειμένου να στοχεύσουν ευπαθή άτομα ή ομάδες ανθρώπων.

... σχόλια | Κάνε click για να σχολιάσεις
Επιχειρώ - epixeiro.gr
Επιχειρώ - epixeiro.gr