Θέματα

Μήπως πρέπει να δίνει τον Ορκο του Ιπποκράτη και η τεχνητή νοημοσύνη;

Εκτός από τους γιατρούς, θα πρέπει πλέον να δίνουν τον όρκο και οι αναλυτές δεδομένων που κατασκευάζουν τις βάσεις της μηχανικής μάθησης στους ηλεκτρονικούς υπολογιστές και τελικά δημιουργούν την τεχνητή νοημοσύνη για τον κλάδο της Υγείας. Τι λέει σχετική έκθεση του ΠΟΥ
Protagon Team

Στα ηθικά ζητήματα που προκύπτουν με τη χρήση της τεχνητής νοημοσύνης (AI) στην ιατρική, αναφέρεται η νέα έκθεση 165 σελίδων του Παγκόσμιου Οργανισμού Υγείας (ΠΟΥ), σε μία προσπάθεια να ρίξει μία σοβαρή ματιά στο μέλλον, ίσως και το παρόν και να θέσει νέα όρια.

Στην έκθεση υπογραμμίζεται ότι ενώ οι νέες τεχνολογίες υπόσχονται βελτίωση στη διάγνωση, τη θεραπεία και την έρευνα για την υγεία και τα φάρμακα, θα πρέπει να τεθούν πλέον και θέματα ηθικής και δεοντολογίας από τους δημιουργούς τους. Τι σημαίνει αυτό;

Οτι εκτός από τους γιατρούς, πλέον τον Ορκο του Ιπποκράτη θα πρέπει να δίνουν και οι αναλυτές δεδομένων που κατασκευάζουν τις βάσεις της μηχανικής μάθησης στους ηλεκτρονικούς υπολογιστές και τελικά δημιουργούν την τεχνητή νοημοσύνη που αφορά τον κλάδο της Υγείας.

Οπως γράφει το axios.com, αυτό είναι σημαντικό διότι στο μέλλον η τεχνητή νοημοσύνη θα επεκταθεί ακόμη περισσότερο στον τομέα της Υγείας. Και η τομή από τον ΠΟΥ γίνεται τώρα, διότι η πανδημία επιτάχυνε ακόμη περισσότερο την υιοθέτηση εργαλείων μηχανικής μάθησης.

Ωστόσο, η προσθήκη αλγορίθμων στην υγειονομική περίθαλψη θα πρέπει να ακολουθήσει τον βασικό κανόνα της ιατρικής «ωφελέειν, ή μη βλάπτειν», που είχε διατυπώσει ο Ιπποκράτης. Δηλαδή, σε ελεύθερη απόδοση «να κάνεις το καλό ή τουλάχιστον να μη βλάπτεις».

Μετά από περίπου δύο χρόνια διαβουλεύσεων που είχαν εμπειρογνώμονες από όλο τον κόσμο για τη δημιουργία της έκθεσης του ΠΟΥ, κατέληξαν στο συμπέρασμα ότι η τεχνητή νοημοσύνη και τα συστήματα εφαρμοσμένης μηχανικής μάθησης έχουν να προσφέρουν πολλά στον τομέα της Υγείας, «μόνο όμως εάν η ηθική και τα ανθρώπινα δικαιώματα βρεθούν στην καρδιά του σχεδιασμού του συστήματος, της ανάπτυξης και της χρήσης του», όπως υπογραμμίζεται.

Τι σημαίνει αυτό; Οτι σήμερα η τεχνητή νοημοσύνη δεν θα μπορούσε να διαχωρίσει εάν ένα άτομο 30 ετών με υποκείμενα νοσήματα έχει μεγαλύτερο κίνδυνο από τον κορονοϊό ή από το εμβόλιο. Ακριβώς όπως συμβαίνει με ένα αυτοκίνητο με τεχνητή νοημοσύνη, το οποίο δεν έχει αυτή τη στιγμή την ηθική επιλογή για το αν θα έπρεπε υποχρεωτικά να επιλέξει εάν θα χτυπήσει και θα παρασύρει έναν ηλικιωμένο 95 ετών ή ένα παιδί πέντε ετών.

Δηλαδή τα συστήματα αυτά σήμερα δεν θεωρούνται έτοιμα για να κατανοήσουν πότε δεν θα βλάψουν.

Και φυσικά η ιατρική δεν είναι απλά μαθηματικά, αλλά βιολογία, κάτι δηλαδή πολύ πιο σύνθετο από την επιλογή μεταξύ του φόνου ενός υπερήλικα και ενός παιδιού.

H τεχνητή νοημοσύνη χρησιμοποιείται ήδη στην ιατρική. Σε ακτινολογικούς ελέγχους για την ανίχνευση όγκων, στη δημιουργία φαρμάκων (εδώ), για την πρόβλεψη της εξέλιξης της πανδημίας (εδώ) και σε άλλες περιπτώσεις.

Εντούτοις, όπως γράφει το axios.com, η δύναμη της τεχνητής νοημοσύνης στην υγειονομική περίθαλψη είναι επικίνδυνη. Η ικανότητα των υπολογιστικών συστημάτων να επεξεργάζονται τεράστιες ποσότητες δεδομένων και να εντοπίζουν σημαντικά θέματα πολύ πιο γρήγορα από τους ανθρώπους, δεν σημαίνει ότι θα δώσει και σωστά αποτελέσματα.

Αν κάτι πάει στραβά σε ένα και μόνο αλγόριθμο, κινδυνεύει να κάνει πολύ μεγαλύτερη ζημιά και βλάβη στον οργανισμό ενός ανθρώπου, από αυτήν που θα μπορούσε να κάνει και ο χειρότερος γιατρός του κόσμου.

Σε πρόσφατη μελέτη φάνηκε ότι ένας αλγόριθμος που χρησιμοποιήθηκε για τον εντοπισμό περιστατικών σήψης, έχασε τα δύο τρίτα των περιστατικών, ενώ χτυπούσε συχνά λάθος συναγερμούς.

Ετσι, ο ΠΟΥ αποφάσισε ότι είναι μεν σημαντικό να χρησιμοποιήσουμε στο έπακρο την τεχνητή νοημοσύνη στην ιατρική, όμως θα πρέπει να υπάρχει ένα είδος Ορκου του Ιπποκράτη και για τους τεχνικούς που δημιουργούν τις βάσεις δεδομένων και τα συστήματα μηχανικής μάθησης. Στην πραγματικότητα ένα όριο μέχρι πού θα φτάσουν την επιστήμη τους.

Στην ίδια έκθεση, αναφέρεται ότι οι άνθρωποι που εμπλέκονται στη διαδικασία της θεραπείας, δηλαδή γιατρός και ασθενής, παραμένουν οι απόλυτα υπεύθυνοι στη λήψη αποφάσεων για την υγεία και η τεχνητή νοημοσύνη θα πρέπει να λειτουργεί με την αρχή του «μη βλάπτειν». Κάτι που με τα σημερινά δεδομένα δεν μπορεί να επιτευχθεί.

Και όσο πιο σύνθετοι γίνονται οι αλγόριθμοι, τόσο πιο δύσκολο είναι να εξηγήσουν τα αποτελέσματά τους στους ανθρώπους, ενώ τα μοντέλα τεχνητής νοημοσύνης παραμένουν εγκλωβισμένα, συχνά λόγω των κακών δεδομένων που τους έχουν φορτώσει.

Σύμφωνα με τον axios.com, λίγες είναι οι επαγγελματικές κατηγορίες που απαιτούν περισσότερη εμπιστοσύνη από εκείνη που έχει ένας ασθενής στον γιατρό του. Και η τεχνητή νοημοσύνη χρειάζεται ακόμη πολλά χρόνια για να κερδίσει αυτή την εμπιστοσύνη από τον άνθρωπο (εδώ). Οσο καλύτερη από τον γιατρό και αν γίνει στο μέλλον…