Κ. Καραχάλιος, ΙΕΕΕ: Εάν κάποιος εργάζεται στο AI, εργάζεται για το μέλλον της ανθρωπότητας
10/08/2021 | 09:00
07/08/2025 | 08:48
Η τεχνητή νοημοσύνη έρχεται ολοένα και περισσότερο στο επίκεντρο. Ποιο είναι το σήμερα και το αύριο του συγκεκριμένου τομέα; Ο Δρ. Κωνσταντίνος Καραχάλιος, Διευθύνων Σύμβουλος της Ένωσης Προτύπων IEEE (IEEE Standards Association) και μέλος του IEEE Management Council, μιλάει σήμερα στο epixeiro.gr.
Θα ξεκινήσω από το «SNF Nostos Conference: Ανθρωπότητα και Τεχνητή Νοημοσύνη» και τη συζήτηση «AI is In/Compatible With Human Freedom» στην οποία θα συμμετέχετε. Τελικά, είναι ή δεν είναι η τεχνητή νοημοσύνη συμβατή με την ανθρώπινη ελευθερία;
Εδώ έχουμε να κάνουμε με δυο διαφορετικά ερωτήματα και ουσίες, τα οποία μόνο εν μέρει έχουν σχέση μεταξύ τους. Το ένα άφορά την έννοια, το ποιόν και τις μελλοντικές δυνατότητες της λεγάμενης τεχνητής νοημοσύνη, και το άλλο αν οι άνθρωποι έχουν την δυνατότητά να αποφασίζουν ελεύθερα και κάτω από ποιες συνθήκες. Προτού λοιπόν δούμε αν το πρώτο επηρεάζει το δεύτερο, είναι χρήσιμο να ανοίξουμε τα χαρτιά μας για καθένα από αυτά τα δυο ζητήματα.
Πρώτα απ' όλα, ο όρος «τεχνητή νοημοσύνη» είναι προβληματικός για μια σειρά από λόγους. Ίσως ο σημαντικότερος όλων, είναι μια έμμεση παραδοχή ότι η ανθρώπινη νοημοσύνη παράγεται στην ουσία από έναν ανθρώπινο μεν εγκέφαλο, ο οποίος όμως δεν διαφέρει οντολογικά και ποιοτικά (παρά μόνον ποσοτικά) από έναν (δήθεν ακόμη υπό ανάπτυξη) σούπερ ηλεκτρονικό υπολογιστή. Αυτή η έμμεση παραδοχή εκ μέρους των οπαδών της ψευτοθρησκείας που ομνύει σε μια υποτιθέμενη τεχνητή νοημοσύνη ως μια αναδυόμενη sui generis οντότητα, ενώ προσδίδει ανθρώπινες ιδιότητες στις μηχανές, ταυτόχρονα υποβαθμίζει και υποβιβάζει το ανθρώπινο ον σε επίπεδο μηχανής.
Είναι δε διασκεδαστικό, ότι οι θιασώτες αυτής της μειωτικής για την ανθρώπινη αξιοπρέπεια θεώρησης, ενώ στην ουσία αρνούνται εδώ και τώρα την δυνατότητα για ελεύθερη θέληση στον άνθρωπο (οι περισσότεροι είναι οπαδοί του ντετερμινισμού), νοιάζονται για τις υποτιθέμενες μελλοντικές υπαρξιακές αγωνίες των μηχανών. Όλες οι μηχανές, ακόμα και αυτές που προγραμματίζονται με εξαιρετικά ευφυή τρόπο, είναι αυτοπεριορισμένες στο «εδώ και τώρα», δεν μπορούνε, δηλαδή, να έχουν «εμπειρίες» και δεν μπορούν να ξεπεράσουν τα όρια που μπαίνουν από τη μηχανική φύση τους.
Από την άλλη πλευρά, η ανθρώπινη εμπειρία και διαίσθηση αφήνει ανοικτό το ενδεχόμενο, κάτω από κάποιες προϋποθέσεις, να είναι δυνατόν να υπερβούμε τις αρχικές και οριακές συνθήκες της ύπαρξής μας και να ανοίξουμε, έτσι, παράθυρα σε κάτι που θα μπορούσαμε να δούμε ως «ελευθερία της θέλησης».
Το κυρίως ερώτημα εδώ δεν είναι επιστημονικό, αλλά υπαρξιακό και φιλοσοφικό, δηλαδή αν το σύμπαν στο οποίο μετέχουμε ως άνθρωποι είναι κλειστό ή ανοιχτό, αν υπάρχει, δηλαδή, μόνο μια αέναη μετατροπή σε διάφορες μορφές (για παράδειγμα από μάζα σε ενέργεια και ανάποδα) μιας εξ αρχής υπάρχουσας ουσίας (η ποσότητα της οποίας μένει αναλλοίωτη, βάση της περίφημης αρχής του Παρμενίδη περί του «είναι»), ή αν υπάρχει γέννηση εκ του μηδενός και πλήρης αφανισμός.
Προφανώς, αυτά τα ερωτήματα δεν απασχολούν κανέναν ηλεκτρονικό υπολογιστή και μάλλον ούτε τους οπαδούς της υποτιθέμενης τεχνητής νοημοσύνης και των διαφόρων θεωριών περί singularity. Με αυτή την έννοια, καμία μηχανή δεν θα μπορούσε να αποτελέσει εμπόδιο για την έκφραση της ελεύθερης βούλησης ενός ανθρώπου που θα είχε την διάθεση να ρισκάρει να ενεργοποιήσει αυτή την δημιουργική ικανότητα. Αυτή η διαδικασία, καθώς συνήθως γίνεται σε αντίθεση με μηχανισμούς δύναμης και εξουσίας, ενέχει σοβαρούς κινδύνους, αλλά χωρίς αυτή δεν μπορεί να εξηγηθεί το πρόταγμα της αυτονομίας, απολύτως αναγκαίο για να υπάρξει πολιτική ελευθερία, καθώς και καλλιτεχνική και επιστημονική δημιουργία.
Παρ' όλα αυτά, υπάρχει ένα πρακτικό ζήτημα που δημιουργείται από την ικανότητα των προγραμματιστών να φτιάχνουν συστήματα που μπορούν να συλλέγουν τα προσωπικά μας δεδομένα και να τα συνδέουν με το αποτύπωμα που αφήνουμε όταν συνδεόμαστε με το διαδίκτυο. Με αυτόν τον τρόπο, κατορθώνουν να επηρεάζουν τις επιλογές μας, τόσο σε επίπεδο καταναλωτικό όσο και κοινωνικοπολιτικό.
Και αν μπορεί κανείς να πει ότι φταίμε εμείς που συναινούμε άνευ όρων στις προϋποθέσεις που μας βάζουν για να χρησιμοποιούμε τα δήθεν δωρεάν συστήματά τους, αυτό δεν ισχύει για τους ανήλικους χρήστες για τους οποίους ισχύουν -δυστυχώς μόνον θεωρητικώς- άλλα νομικά πλαίσια. Αυτό είναι κατά την γνώμη μου το δεύτερο (μετά την ανθρωπογενή υπερθέρμανση του πλανήτη) μεγάλο σκάνδαλο της εποχής μας. Δηλαδή, ότι έχουμε αφήσει τα παιδιά μας έρμαια στις εξαιρετικά αποτελεσματικά χειραγωγικές ικανότητες στρατιών ολόκληρων από ειδικούς προγραμματιστές, που μόνο στόχο έχουν τον (και με πολιτική έννοιά) ολοκληρωτικό εθισμό των ανήλικων χρηστών.
Σε αυτό το σημείο, η χρήση εξελιγμένων ψηφιακών εφαρμογών πράγματι δεν είναι συμβατή με την έννοια της ελευθερίας, καθώς στις πλέον χρησιμοποιούμενες διαδικτυακές πλατφόρμες, αυτά έχουν γίνει συνώνυμα με εθισμό, χειραγώγηση και παραπλάνηση. Στην περίπτωση δε ανήλικων ατόμων (τα οποία αποτελούν περίπου το ένα τρίτο των χρηστών των διαφόρων λεγόμενων «κοινωνικών δικτύων»), αυτά γεννιούνται μέσα σε αυτό το πολύ αποτελεσματικά χειραγωγικό σύστημα και δεν γνωρίζουν πλέον ότι υπάρχει κάτι έξω από και πέρα από αυτό.
Δώστε μας μια εικόνα από τις δράσεις του IEEE γύρω από την τεχνητή νοημοσύνη. Πού εστιάζει το ενδιαφέρον του και σε τι σημείο βρίσκονται αυτές οι προσπάθειες, αυτή τη στιγμή;
Ήδη, από το 2015 προβλέψαμε τα αναδυόμενα ζητήματα και δημιουργήσαμε μια παγκόσμια κοινότητα εμπειρογνωμόνων για τον εντοπισμό συναφών ζητημάτων και κινδύνων και την πρόταση λύσεων και διορθώσεων στον τομέα των συστημάτων τεχνητής νοημοσύνης. Ένα σημαντικό αποτέλεσμα της συλλογικής ευφυΐας αυτής της κοινότητας, ήταν το Ethically Aligned Design, το οποίο έθεσε σε κίνηση ένα χαρτοφυλάκιο εργασιών αφιερωμένο στην παροχή πρακτικών και αποτελεσματικών λύσεων.
Αυτές περιλαμβάνουν μια σειρά πρότυπων έργων που αντιμετωπίζουν ζητήματα ηθικού σχεδιασμού συστημάτων, διαφάνειας, προκατάληψης και διακυβέρνησης δεδομένων, τη δημιουργία εξειδικευμένων εργαλείων για την εκτέλεση πρακτικής αξιολόγησης της ποιότητας των πολύπλοκων συστημάτων τεχνητής νοημοσύνης -που λειτουργούν από φορείς του δημόσιου και του ιδιωτικού τομέα- και τη δημιουργία εκπαιδευτικού υλικού για τα προγράμματα σπουδών των πανεπιστημίων.
Τέτοιες τεχνολογίες απαιτούν μια συλλογική απάντηση σε σχέση με την ταχεία εφαρμογή τους
Μετά από χρόνια συλλογικής, bottom-up και σε παγκόσμιο επίπεδο, ανοιχτής εργασίας με γνώμονα τη συναίνεση, τώρα ολοκληρώνονται αρκετά κρίσιμα πρότυπα - ναυαρχίδες. Η γνώση που περιέχουν μπορεί να είναι δημόσια προσβάσιμη και τα εργαλεία και το υλικό που θα δημιουργηθούν μπορούν πλέον να χρησιμοποιηθούν για τη βελτίωση των μεθοδολογιών σχεδιασμού και την αξιολόγηση της ποιότητας των αλγοριθμικών συστημάτων σε όλους τους τομείς.
Ένα τέτοιο πρότυπο είναι το IEEE 7000 (IEEE Model Process for Addressing Ethical Concerns During System Design), το οποίο καθιερώνει μια σειρά διαδικασιών μέσω των οποίων οι οργανισμοί μπορούν να συμπεριλάβουν την εξέταση των ανθρώπινων ηθικών αξιών σε όλα τα στάδια εξερεύνησης και ανάπτυξης και έχει τη δυνατότητα να εξελιχθεί σε νέα κανονικότητα για τη μηχανική συστημάτων, για κάθε οργανισμό που θέλει να επιδείξει διαφάνεια και λογοδοσία στην εποχή των αλγορίθμων, ενώ επωφελείται επίσης από προσεγγίσεις καινοτομίας που τιμούν τις αξίες των τελικών χρηστών.
Επικεντρωνόμαστε, επίσης, σε μεθοδολογίες πιστοποίησης που αποτελούνται από σύνολα προδιαγραφών για την αξιολόγηση της ποιότητας των αλγοριθμικών συστημάτων λήψης αποφάσεων, όσον αφορά στη διαφάνεια/επεξήγηση, τη λογοδοσία/ευθύνη, τη μείωση της αλγοριθμικής προκατάληψης/δικαιοσύνης και τον σεβασμό της ιδιωτικής ζωής/αποφυγή μαζικής επιτήρησης.
Πόσο σημαντική είναι η ανάπτυξη προτύπων στο AI; Πώς αυτά θα επηρεάσουν την ανάπτυξη της τεχνητής νοημοσύνης και προς ποια κατεύθυνση;
Τα πρότυπα αποτελούν κρίσιμα συστατικά της εθνικής και παγκόσμιας τεχνολογικής υποδομής και είναι ζωτικής σημασίας για τη βιομηχανία και το εμπόριο. Πολλά είναι επίσης ζωτικής σημασίας για την ασφάλεια των πολιτών και, καθώς οι τεχνολογίες AIS (Artificial Intelligence Systems) γίνονται πιο διαδεδομένες, πουθενά ο ρόλος της κυβέρνησης δεν είναι πιο σημαντικός από την ασφάλεια των πολιτών -ειδικά των ευάλωτων πληθυσμών όπως τα παιδιά- από τον τομέα της τεχνολογίας.
Ειδικότερα, τέτοιες τεχνολογίες απαιτούν μια συλλογική απάντηση σε σχέση με την ταχεία εφαρμογή τους, προκειμένου να προληφθούν πιθανές αρνητικές επιπτώσεις της χρήσης τους. Στον συνδεδεμένο κόσμο στον οποίο ζούμε, τα πρότυπα που είναι ανοιχτά και χωρίς αποκλεισμούς απευθύνονται σε ολόκληρο το οικοσύστημα AIS, αντί να εστιάζουν σε μεμονωμένες πτυχές, και μπορούν να διαδραματίσουν βασικό ρόλο στην αντιμετώπιση των ηθικών πτυχών των τεχνολογιών που συναντάμε στην καθημερινή ζωή. Η ενισχυμένη συνεργασία με πολλούς ενδιαφερόμενους φορείς είναι απαραίτητη για την αποφυγή ανταγωνιστικών προσεγγίσεων που μειώνουν την εμπιστοσύνη και αποθαρρύνουν τη συνεργασία.
Με μια φράση: τα bottom-up πρότυπα που επιτυγχάνονται μέσω συναίνεσης είναι η καλύτερη ελπίδα μας για να διασφαλίσουμε ότι η διαδικασία του ψηφιακού μετασχηματισμού θα στηρίζεται σε ηθικές αρχές, συμπεριλαμβανομένης της αξιοπιστίας και της δικαιοσύνης.
Είδαμε πρόσφατα την Ευρωπαϊκή Ένωση να παρουσιάζει ένα σχέδιο για τη ρύθμιση της τεχνητής νοημοσύνης με βάση τον κίνδυνο. Ποια η γνώμη σας για αυτό και ποιος θα πρέπει να είναι ο ρόλος του κράτους στην ανάπτυξη και ρύθμιση του AI;
Η προσέγγιση της ΕΕ με βάση τον κίνδυνο ευθυγραμμίζεται με την προοπτική της εργασίας του IEEE σε αυτόν τον χώρο -συγκεκριμένα, στην εστίαση για την ανάπτυξη αξιόπιστων τεχνολογιών και λύσεων και στο ότι η οικοδόμηση εμπιστοσύνης απαιτεί σωστή προστασία της ασφάλειας των ανθρώπων, της ευημερίας και των θεμελιωδών δικαιωμάτων.
Πρέπει να είμαστε προσεκτικοί ώστε τα όρια να μην είναι τόσο επιβαρυντικά, που να εμποδίζουν την ίδια την καινοτομία που σκοπεύουν να προωθήσουν. Η εξισορρόπηση της διατήρησης της ατομικής ασφάλειας και των θεμελιωδών δικαιωμάτων, χωρίς την παρεμπόδιση της καινοτομίας στην τεχνητή νοημοσύνη, μπορεί να γίνει πρόκληση.
Ο νόμος της ΕΕ για την τεχνητή νοημοσύνη επιχειρεί να βρει έναν συμβιβασμό, υιοθετώντας μια προσέγγιση που απαγορεύει συγκεκριμένες μη αποδεκτές χρήσεις τεχνητής νοημοσύνης και ρυθμίζει σε μεγάλο βαθμό ορισμένες άλλες που ενέχουν σημαντικούς κινδύνους, ενώ «σιωπά» -εκτός από την ενθάρρυνση της υιοθέτησης κώδικων δεοντολογίας- σχετικά με τις χρήσεις περιορισμένου κινδύνου ή καθόλου κινδύνου.
Το έργο που κάνει το IEEE προωθεί μια ανθρωποκεντρική, ρεαλιστική μεθοδολογία στην αρχή του σχεδιασμού, κάτι που ταιριάζει απόλυτα στην προσέγγιση της Κομισιόν.
Συχνότερα, μιλάμε για το μέλλον της τεχνητής νοημοσύνης. Στο σήμερα, ποιοι κλάδοι επηρεάζονται περισσότερο, θετικά ή αρνητικά, από την ανάπτυξη του; Και, φτάνοντας και στο μέλλον, ποια η ανάπτυξη που θέλουμε να υπάρξει;
Η τεχνητή νοημοσύνη επεκτείνεται, προσαρμόζεται και εφαρμόζεται σε μια σειρά διαφορετικών επιχειρηματικών δραστηριοτήτων. Το πιθανό εύρος της τεχνολογίας είναι τεράστιο καθώς φέρνει υψηλότερη πολυπλοκότητα και αποτελεσματικότητα σε εργασίες που απαιτούν μεγάλα δεδομένα. Αυτό, σε συνδυασμό με την ικανότητα της τεχνολογίας να αυτοματοποιεί επαναλαμβανόμενες διαδικασίες, ενώ βελτιστοποιεί τον εαυτό της, την καθιστά μια εξαιρετικά disruptive δύναμη σε διάφορους τομείς.
Μαζί με τις σημαντικές προόδους που μπορεί να κάνει η Τεχνητή Νοημοσύνη σε διάφορους τομείς, ειδικά στους τομείς της υγειονομικής περίθαλψης, των χρηματοοικονομικών, των τηλεπικοινωνιών και της συνδεσιμότητας, της κινητικότητας, της κυβερνοασφάλειας και της ενέργειας, οι διάφορες επιδιωκόμενες και ακούσιες συνέπειες και επιπτώσεις σε διάφορες πτυχές της αειφόρου ανάπτυξης (κοινωνικό, οικονομικό και περιβάλλον) πρέπει επίσης να ληφθούν υπόψη.
Με το βλέμμα στραμμένο στο μέλλον, η χρήση τεχνητής νοημοσύνης και ηθικής λήψης αποφάσεων δεν είναι απλώς μια άλλη μορφή εφάπαξ επίλυσης τεχνικών προβλημάτων, αλλά δημιουργεί πολύπλοκα, συνεχώς εξελισσόμενα κοινωνικοτεχνικά συστήματα. Μια αποκλειστικά τεχνοκεντρική εστίαση που περιστρέφεται μόνο γύρω από τη βελτίωση των δυνατοτήτων ενός συστήματος τεχνητής νοημοσύνης, δεν λαμβάνει υπόψη απαραίτητα ή επαρκώς τις ανθρώπινες ανάγκες και τον μακροπρόθεσμο αντίκτυπο στο μέλλον της κοινωνίας. Εάν κάποιος εργάζεται στον κόσμο της AI, στην πραγματικότητα εργάζεται για το μέλλον της ανθρωπότητας, οπότε πρέπει να ενσωματώνει πρακτικές ηθικής σε όλες τις ομάδες που είναι υπεύθυνες για τέτοιου είδους συστήματα. Πρέπει να σχεδιάζεται και να αναπτύσσεται μια ηθική, ανθρωποκεντρική τεχνητή νοημοσύνη, με τρόπο που να ευθυγραμμίζεται ρητά με τις αξίες και τις ηθικές αρχές της κοινωνίας ή της κοινότητας που επηρεάζει.
Τα bottom-up πρότυπα που επιτυγχάνονται μέσω συναίνεσης είναι η καλύτερη ελπίδα μας
Εστιάζοντας στην επιχειρηματικότητα και την εργασία, πώς θα επηρεαστούν αυτοί οι τομείς; Για παράδειγμα, ένα επιχείρημα που ακούγεται συχνά είναι πως θα χαθούν θέσεις εργασίας, από την περαιτέρω αυτοματοποίηση. Συμφωνείτε με αυτό;
Υπάρχουν διάφορες απόψεις γύρω από αυτό το ερώτημα. Η μια είναι ότι η τεχνητή νοημοσύνη και ο αυξημένος αυτοματισμός θα τροφοδοτήσουν την καινοτομία (και την επιχειρηματικότητα) και θα δημιουργήσουν στην πορεία νέες ή περισσότερες θέσεις εργασίας. Η αποδοχή αυτού του τύπου αλλαγής θα απαιτήσει από τα ενδιαφερόμενα μέρη να επικεντρωθούν στην αναβάθμιση των δεξιοτήτων και την επανεκπαίδευση. Η άλλη προοπτική είναι ότι η αυξανόμενη χρήση τεχνητής νοημοσύνης στο εργατικό δυναμικό θα προκαλέσει -τουλάχιστον βραχυπρόθεσμα και μεσοπρόθεσμα- σημαντική μετατόπιση θέσεων εργασίας και θα οδηγήσει σε μειωμένο εργατικό δυναμικό, λόγω της ενσωμάτωσης της τεχνολογίας.
Με αισιόδοξη ματιά, μια έκθεση του WEF του 2020 που σχετίζεται με το θέμα προβλέπει ότι ο αριθμός των θέσεων εργασίας που θα χαθούν θα ξεπεραστεί από τον αριθμό των «θέσεων εργασίας του αύριο» που θα δημιουργηθούν, ενώ εμφανίζονται νέοι ρόλοι που είναι περισσότερο προσαρμοσμένοι στον νέο καταμερισμό εργασίας μεταξύ ανθρώπων, μηχανών και αλγορίθμων. Η πρόκληση είναι το timing και ο πιθανός αντίκτυπος στο εργατικό δυναμικό που βρίσκεται στο ενδιάμεσο και στο πώς το αντιμετωπίζουμε αυτό.
Ποιες δεξιότητες -ψηφιακές ή μη- χρειάζεται ένας εργαζόμενος σήμερα για να είναι καλύτερα προετοιμασμένος για το αύριο - και ποιες θα του προσφέρουν περισσότερες ευκαιρίες αυτή τη στιγμή;
Στην μελέτη «Ethical Aligned Design for Business» του IEEE, η κοινότητα των ειδικών επισημαίνει τη σημασία του εντοπισμού των ειδικών δεξιοτήτων που απαιτούνται για τον ηθικό σχεδιασμό γύρω από την τεχνητή νοημοσύνη, για μεμονωμένες προσλήψεις, καθώς και για την αύξηση των δεξιοτήτων των υπαρχόντων μελών της ομάδας σε ολόκληρη την εταιρεία. Ο συγκεκριμένος συνδυασμός των επιθυμητών δεξιοτήτων θα είναι διαφορετικός με βάση την κουλτούρα και τις ανάγκες της ίδιας της εταιρείας.
Υπάρχει μια αρκετά ολοκληρωμένη λίστα, αλλά αυτή περιλαμβάνει: ισχυρές δεξιότητες επικοινωνίας και διαπραγμάτευσης, ικανότητα εφαρμογής και καθοδήγησης ενός κώδικα δεοντολογίας της τεχνητής νοημοσύνης -π.χ. μη διάκριση, ανθρώπινα δικαιώματα, ποικιλομορφία και ένταξη- δεξιότητες διαχείρισης προγράμματος, κατανόηση των συνθηκών και των καταστάσεων στις οποίες το σύστημα τεχνητής νοημοσύνης λειτουργεί ή όχι, χρήση λεξιλογίου και μοντέλων από τη φιλοσοφία -συμπεριλαμβανομένων ηθικών θεωριών, λογικής και αισθητικής για την τροποποίηση και διευκόλυνση της ανάπτυξης μοντέλων ηθικής λήψης αποφάσεων- κατανόηση των εννοιών της προκατάληψης και της δικαιοσύνης, λογοδοσία και επίλυση ζητημάτων, διαφάνεια, ερμηνευσιμότητα και ικανότητα επεξήγησής, αλλά και κατανόηση του αντίκτυπου της τεχνητής νοημοσύνης στην ιδιωτική ζωή, στον έλεγχο, στην αξιοπρέπεια, στην αίσθηση της αντιπροσωπείας, στην ανθρώπινη ευημερία και τα ανθρώπινα δικαιώματα.
Το SNF Nostos Conference 2021, με θέμα «Ανθρωπότητα και Τεχνητή Νοημοσύνη» διοργανώνεται από το Ίδρυμα Σταύρος Νιάρχος στο Κέντρο Πολιτισμού Ίδρυμα Σταύρος Νιάρχος (ΚΠΙΣΝ), από τις 26 ως τις 28 Αυγούστου του 2021. Για περισσότερες πληροφορίες ή για να εγγραφείτε και να παρακολουθήσετε το SNF Nostos Conference, επισκεφθείτε το snfnostos.org/snf-conference-2021.
Σχολιάστε