NEWSFLASH...
Διεθνή
ανάγνωση

Χτυπούν παγκόσμια «καμπανάκια» για την τεχνητή νοημοσύνη στον τομέα της υγείας

Χτυπούν παγκόσμια «καμπανάκια» για την τεχνητή νοημοσύνη στον τομέα της υγείας

​Ο Παγκόσμιος Οργανισμός Υγείας δημοσίευσε πρόσφατα την πρώτη αναφορά του γύρω από την χρήση της τεχνητής νοημοσύνης στον τομέα της υγείας, μαζί με έξι αρχές που, σύμφωνα με τον ίδιο, θα πρέπει να υιοθετούνται στον σχεδιασμό και την χρήση του AI.

Η Τεχνητή Νοημοσύνη (AI), σύμφωνα με τον Παγκόσμιο Οργανισμό Υγείας (ΠΟΥ), είναι πολλά υποσχόμενη «στη βελτίωση της παροχής υγειονομικής περίθαλψης και ιατρικής παγκοσμίως, αλλά μόνο εάν η ηθική και τα ανθρώπινα δικαιώματα τεθούν στο επίκεντρο του σχεδιασμού, της ανάπτυξης και της χρήσης της».

Σύμφωνα με τον Dr Tedros Adhanom Ghebreyesus, επικεφαλής του ΠΟΥ, «όπως όλες οι νέες τεχνολογίες, η τεχνητή νοημοσύνη έχει τεράστιες δυνατότητες για τη βελτίωση της υγείας εκατομμυρίων ανθρώπων σε όλο τον κόσμο, αλλά όπως και για όλες τις τεχνολογίες, μπορεί επίσης να χρησιμοποιηθεί καταχρηστικά και να προκαλέσει βλάβη».

Η έκθεση προειδοποιεί πως δεν πρέπει να υπερεκτιμηθούν τα οφέλη για την υγεία, επισημαίνει ότι οι ευκαιρίες συνδέονται με προκλήσεις και κινδύνους, συμπεριλαμβανομένης της ανήθικης συλλογής και χρήσης δεδομένων υγείας, προκαταλήψεις που κωδικοποιούνται σε αλγόριθμους και κινδύνους για την ασφάλεια των ασθενών, την κυβερνοασφάλεια και το περιβάλλον.

Για παράδειγμα, σύμφωνα με τον ΠΟΥ, «ενώ οι επενδύσεις του ιδιωτικού και του δημόσιου τομέα στην ανάπτυξη του AI είναι κρίσιμης σημασίας, η ανεξέλεγκτη χρήση θα μπορούσε να υποτάξει τα δικαιώματα και τα συμφέροντα των ασθενών και των κοινοτήτων στα ισχυρά εμπορικά συμφέροντα των τεχνολογικών εταιρειών ή στα συμφέροντα των κυβερνήσεων».

Οι έξι αρχές για το AI

Οι έξι αρχές που θα διασφαλίσουν ότι το AI λειτουργεί για το δημόσιο συμφέρον σε όλες τις χώρες είναι, σύμφωνα με τον ΠΟΥ, οι ακόλουθες:

Αρχικά, στο πλαίσιο της υγειονομικής περίθαλψης, οι άνθρωποι πρέπει να διατηρήσουν τον έλεγχο των συστημάτων υγειονομικής περίθαλψης και των ιατρικών αποφάσεων. Το απόρρητο και η εμπιστευτικότητα πρέπει να προστατεύονται και οι ασθενείς πρέπει να παρέχουν έγκυρη συναίνεση κατόπιν ενημέρωσης μέσω κατάλληλων νομικών πλαισίων για την προστασία των δεδομένων.

Στη συνέχεια, οι σχεδιαστές τεχνολογιών τεχνητής νοημοσύνης θα πρέπει να πληρούν τις κανονιστικές απαιτήσεις για ασφάλεια, ακρίβεια και αποτελεσματικότητα, για σαφώς καθορισμένες περιπτώσεις ή ενδείξεις χρήσης. Στην πράξη, πρέπει να υπάρχουν μέτρα ελέγχου ποιότητας και βελτίωσης της ποιότητας στη χρήση AI.

Τρίτο, η διαφάνεια απαιτεί να δημοσιεύονται ή να τεκμηριώνονται επαρκείς πληροφορίες πριν από το σχεδιασμό ή την ανάπτυξη μιας τεχνολογίας AI. Αυτές οι πληροφορίες πρέπει να είναι εύκολα προσβάσιμες και να διευκολύνουν την ουσιαστική δημόσια διαβούλευση και συζήτηση σχετικά με το πώς σχεδιάζεται η τεχνολογία και πώς πρέπει ή δεν πρέπει να χρησιμοποιείται.

Τέταρτο, παρόλο που οι τεχνολογίες AI εκτελούν συγκεκριμένα καθήκοντα, είναι ευθύνη των ενδιαφερόμενων μερών να διασφαλίσουν ότι χρησιμοποιούνται υπό κατάλληλες συνθήκες και από κατάλληλα εκπαιδευμένους ανθρώπους. Θα πρέπει να υπάρχουν αποτελεσματικοί μηχανισμοί για διερεύνηση και αποζημίωση για άτομα και ομάδες που επηρεάζονται δυσμενώς από αποφάσεις που βασίζονται σε αλγόριθμους.

Πέμπτο, η συμπερίληψη απαιτεί η AI για την υγεία να σχεδιάζεται ώστε να ενθαρρύνει την ευρύτερη δυνατή δίκαιη χρήση και πρόσβαση, ανεξάρτητα από την ηλικία, το φύλο, το εισόδημα, τη φυλή, την εθνικότητα, τον σεξουαλικό προσανατολισμό, τις ικανότητες ή άλλα χαρακτηριστικά που προστατεύονται από τους κώδικες ανθρωπίνων δικαιωμάτων.

Και έκτο, οι σχεδιαστές, οι προγραμματιστές και οι χρήστες πρέπει να αξιολογούν συνεχώς και με διαφάνεια τις εφαρμογές AI κατά τη διάρκεια της πραγματικής τους χρήσης, για να προσδιορίζουν εάν η AI ανταποκρίνεται ικανοποιητικά και κατάλληλα στις προσδοκίες και τις απαιτήσεις. Τα συστήματα τεχνητής νοημοσύνης θα πρέπει, επίσης, να σχεδιάζονται έτσι ώστε να ελαχιστοποιούν τις περιβαλλοντικές τους συνέπειες και να αυξάνουν την ενεργειακή απόδοση. Οι κυβερνήσεις και οι εταιρείες πρέπει να αντιμετωπίσουν τις αναμενόμενες διαταραχές στο χώρο εργασίας, συμπεριλαμβανομένης της εκπαίδευσης των εργαζομένων στον τομέα της υγείας, ώστε να προσαρμοστούν στη χρήση συστημάτων AI, αλλά και πιθανών απωλειών θέσεων εργασίας λόγω της χρήσης αυτοματοποιημένων συστημάτων.

Η ευρωπαϊκή ρύθμιση

Πρόσφατη είναι, άλλωστε, και η πρόταση της Κομισιόν για τη δημιουργία ενός ευρωπαϊκού πλαισίου γύρω από την τεχνητή νοημοσύνη, μια προσέγγιση με βάση τον κίνδυνο που διαχωρίζει τις εφαρμογές τεχνητής νοημοσύνης με βάση τον κίνδυνο που παρουσιάζουν, κάτι που συμπεριλαμβάνει και την υγεία. Ένα νομικό πλαίσιο που, όπως δήλωσε η ίδια η εκτελεστική αντιπρόεδρος της Επιτροπής, Margrethe Vestager, «εξετάζει πώς χρησιμοποιείται το AI και για ποιο λόγο».

Όπως γράφαμε και κατά την παρουσίαση του συγκεκριμένου πλαισίου, η «χαμηλότερη» βαθμίδα είναι εκείνη με τον «ελάχιστο κίνδυνο», όπως για παράδειγμα ένα φίλτρο που αναγνωρίζει τα spam mail. Μετά, εντοπίζεται ο «περιορισμένος κίνδυνος», όπως από ένα chatbot που βοηθά τον χρήστη να κλείσει εισιτήρια. Αυτά θα επιτρέπονται, αλλά με υποχρεώσεις διαφάνειας. Στόχος είναι να γίνεται σαφές στους χρήστες ότι αλληλοεπιδρούν με μια «μηχανή».

Αμέσως μετά, τα συστήματα AI υψηλού κινδύνου, τα οποία θα υπόκεινται σε αυστηρές υποχρεώσεις προτού επιτραπεί η διάθεσή τους στην αγορά. Χαρακτηρίζονται ως τέτοια καθώς θεωρείται πως παρεμβαίνουν σε σημαντικές πτυχές της ζωής των ανθρώπων. Όπως, για παράδειγμα, λογισμικό που χρησιμοποιείται σε αυτοοδηγούμενα αυτοκίνητα ή ιατρικές συσκευές, που μπορεί να οδηγήσουν σε κινδύνους για την ασφάλεια και την υγεία.

Στην κορυφή της «πυραμίδας» τα συστήματα εκείνα που παρουσιάζουν «μη αποδεκτό κίνδυνο» και που θεωρείται ότι συνιστούν σαφή απειλή για την ασφάλεια, τον βιοπορισμό και τα δικαιώματα των ατόμων. Η χρήση αυτών, θα απαγορεύεται. Εδώ εντοπίζεται τεχνητή νοημοσύνη που χρησιμοποιεί υποσυνείδητες τεχνικές για να προκαλέσει σωματική ή ψυχολογική βλάβη σε κάποιον ή συστήματα «κοινωνικής βαθμολόγησης».

Η εικόνα στην Ελλάδα

Στην Ελλάδα, οι startups που επικεντρώνουν στις βιοεπιστήμες -έναν τομέα που σχετίζεται και με την υγεία- ξεχωρίζουν, τουλάχιστον σε αριθμό. Όπως φάνηκε από πρόσφατα στατιστικά που δόθηκαν στη δημοσιότητα μέσω του Elevate Greece, όσον αφορά στους τομείς δραστηριότητας των startups, στην πρώτη θέση είναι οι βιοεπιστήμες με 14,1%. Ακολουθεί ο τουρισμός με 9,1%, το περιβάλλον με 9,1%, η αγροτεχνολογία με 7,1% και η διαφήμιση με 7%.

Άλλωστε, σύμφωνα με την J.P. Morgan, η πανδημία του COVID-19 οδήγησε την περασμένη χρονιά σε υψηλό ρεκόρ στις επενδύσεις επιχειρηματικού κεφαλαίου στις βιοεπιστήμες, κάτι που αναμένεται πως θα συνεχιστεί και φέτος. Η πανδημία μετέτρεψε τη βιομηχανία, δημιουργώντας τεράστιες ευκαιρίες για οργανισμούς και επενδυτές, ώστε να οδηγήσουν την υγειονομική περίθαλψη μέσω της καινοτομίας. Οι μεγάλοι χρηματοδοτικοί VC γύροι έπαιξαν καθοριστικό ρόλο, κάτι που θα μπορούσε να συνεχιστεί στο οικοσύστημα χρηματοδότησης.

Πιο συγκεκριμένα, βάσει του report της J.P. Morgan, το 2020, στους τομείς του Healthcare και των Life Sciences, υπήρξαν 995 &D Partnerships, 683 συμφωνίες γύρω από ακαδημαϊκή έρευνα και αδειοδότηση, 391 εξαγορές και συγχωνεύσεις, 114 εξαγορές επιχειρηματικών μονάδων και γραμμών παραγωγής, 226 συμφωνίες Sales/Co-Promotion, 729 επενδυτικοί γύροι VC και 149 IPO. Το τρίτο τρίμηνο του 2020 ήταν το μεγαλύτερο που έχει καταγραφεί από πλευράς κεφαλαίων σε venture επενδύσεις στις βιοεπιστήμες.

... σχόλια | Κάνε click για να σχολιάσεις
Επιχειρώ - epixeiro.gr
Επιχειρώ - epixeiro.gr