ΚΟΙΝΟΠΟΙΗΣΗ | ΕΚΤΥΠΩΣΗ | ΗΛΕΚΤΡΟΝΙΚΗ ΔΙΕΥΘΥΝΣΗ
Η εμπειρία μου στην ιατρική μου επιτρέπει να διακρίνω μεταξύ γνήσιας καινοτομίας και ανεπαίσθητης αναταξινόμησης που αλλάζει ριζικά την πρακτική, ενώ παράλληλα φαίνεται αμετάβλητη. Η τεχνητή νοημοσύνη έχει πρόσφατα προσελκύσει σημαντική προσοχή, συμπεριλαμβανομένου του ευρέως διαδεδομένου ισχυρισμού ότι η τεχνητή νοημοσύνη έχει «νομικά εξουσιοδοτηθεί να ασκεί την ιατρική» στις Ηνωμένες Πολιτείες. Ερμηνευόμενος κυριολεκτικά, αυτός ο ισχυρισμός είναι ανακριβής. Κανένα ιατρικό συμβούλιο δεν έχει χορηγήσει άδεια σε μηχανή. Κανένας αλγόριθμος δεν έχει ορκιστεί, δεν έχει αποδεχτεί εμπιστευτικό καθήκον ή δεν έχει αναλάβει προσωπική ευθύνη για βλάβη ασθενών. Κανένας ρομποτικός γιατρός δεν ανοίγει κλινική, δεν χρεώνει ασφαλιστές ή δεν παρουσιάζεται ενώπιον ενόρκων για ιατρικές αδικίες.
Ωστόσο, το να περιοριστούμε σε αυτήν την παρατήρηση παραβλέπει το ευρύτερο ζήτημα. Οι νομικές έννοιες της ευθύνης επαναπροσδιορίζονται επί του παρόντος, συχνά χωρίς να είναι ευαισθητοποιημένο το κοινό.
Ένας σημαντικός μετασχηματισμός βρίσκεται σε εξέλιξη, που δικαιολογεί κάτι περισσότερο από μια αντανακλαστική απόρριψη ή έναν άκριτο τεχνολογικό ενθουσιασμό. Η τρέχουσα εξέλιξη δεν είναι η αδειοδότηση της τεχνητής νοημοσύνης ως ιατρού, αλλά μάλλον η σταδιακή διάβρωση των βασικών ορίων της ιατρικής: ο εγγενής δεσμός μεταξύ κλινικής κρίσης και ανθρώπινης λογοδοσίας. Η κλινική κρίση περιλαμβάνει τη λήψη τεκμηριωμένων αποφάσεων προσαρμοσμένων στις μοναδικές ανάγκες και περιστάσεις κάθε ασθενούς, απαιτώντας ενσυναίσθηση, διαίσθηση και βαθιά κατανόηση της ιατρικής δεοντολογίας.
Η ανθρώπινη λογοδοσία αναφέρεται στην ευθύνη που αναλαμβάνουν οι πάροχοι υγειονομικής περίθαλψης για αυτές τις αποφάσεις και τα αποτελέσματά τους. Αυτή η διάβρωση δεν είναι αποτέλεσμα δραματικής νομοθεσίας ή δημόσιας συζήτησης, αλλά συμβαίνει αθόρυβα μέσω πιλοτικών προγραμμάτων, κανονιστικών επανερμηνειών και γλώσσας που σκόπιμα αποκρύπτει την ευθύνη. Μόλις καταργηθεί αυτό το όριο, η ιατρική μετασχηματίζεται με τρόπους που είναι δύσκολο να αντιστραφούν.
Η κύρια ανησυχία δεν είναι αν η Τεχνητή Νοημοσύνη μπορεί να αναπληρώσει συνταγές ή να εντοπίσει μη φυσιολογικά εργαστηριακά αποτελέσματα. Η ιατρική χρησιμοποιεί εδώ και καιρό εργαλεία και οι πάροχοι υγειονομικής περίθαλψης γενικά καλωσορίζουν τη βοήθεια που μειώνει τις διοικητικές εργασίες ή βελτιώνει την αναγνώριση προτύπων. Το πραγματικό ζήτημα είναι αν η ιατρική κρίση - η λήψη αποφάσεων σχετικά με τις σωστές ενέργειες, τους ασθενείς και τους κινδύνους - μπορεί να θεωρηθεί ως ένα αποτέλεσμα που δημιουργείται από υπολογιστή, διαχωρισμένο από την ηθική ευθύνη. Ιστορικά, οι προσπάθειες αποσύνδεσης της κρίσης από την λογοδοσία έχουν συχνά προκαλέσει βλάβη χωρίς να αναλαμβάνουν την ευθύνη.
Πρόσφατες εξελίξεις διευκρινίζουν την προέλευση της τρέχουσας σύγχυσης. Σε αρκετές πολιτείες, περιορισμένα πιλοτικά προγράμματα επιτρέπουν πλέον σε συστήματα που βασίζονται στην Τεχνητή Νοημοσύνη να βοηθούν στην ανανέωση συνταγών για σταθερές χρόνιες παθήσεις βάσει στενά καθορισμένων πρωτοκόλλων. Σε ομοσπονδιακό επίπεδο, η προτεινόμενη νομοθεσία έχει εξετάσει εάν η τεχνητή νοημοσύνη θα μπορούσε να χαρακτηριστεί ως «επαγγελματίας» για συγκεκριμένους νομοθετικούς σκοπούς, υπό την προϋπόθεση ότι ρυθμίζεται κατάλληλα. Αυτές οι πρωτοβουλίες παρουσιάζονται συνήθως ως ρεαλιστικές απαντήσεις στις ελλείψεις ιατρών, τις καθυστερήσεις στην πρόσβαση και τις διοικητικές ανεπάρκειες. Ενώ καμία δεν ορίζει ρητά την Τεχνητή Νοημοσύνη ως γιατρό, συλλογικά ομαλοποιούν την πιο ανησυχητική υπόθεση ότι οι ιατρικές ενέργειες μπορούν να πραγματοποιηθούν χωρίς έναν σαφώς αναγνωρίσιμο ανθρώπινο υπεύθυνο λήψης αποφάσεων.
Στην πράξη, αυτή η διάκριση είναι θεμελιώδης. Η ιατρική δεν ορίζεται από τη μηχανική εκτέλεση εργασιών, αλλά από την ανάθεση ευθύνης όταν τα αποτελέσματα είναι δυσμενή. Η σύνταξη μιας συνταγής είναι απλή. Η αποδοχή της ευθύνης για τις συνέπειές της - ιδιαίτερα όταν λαμβάνονται υπόψη συννοσηρότητες, κοινωνικό πλαίσιο, αξίες ασθενών ή ελλιπείς πληροφορίες - είναι πολύ πιο περίπλοκη. Καθ' όλη τη διάρκεια της καριέρας μου, αυτή η ευθύνη βαρύνει συνεχώς έναν άνθρωπο που θα μπορούσε να αμφισβητηθεί, να αμφισβητηθεί, να διορθωθεί και να λογοδοτήσει. Όταν ο Δρ. Σμιθ κάνει ένα λάθος, η οικογένεια ξέρει με ποιον να επικοινωνήσει, εξασφαλίζοντας μια άμεση σύνδεση με την ανθρώπινη λογοδοσία. Κανένας αλγόριθμος, ανεξάρτητα από την πολυπλοκότητά του, δεν μπορεί να εκπληρώσει αυτόν τον ρόλο.
Ο πρωταρχικός κίνδυνος δεν είναι τεχνολογικός, αλλά κανονιστικός και φιλοσοφικός. Αυτή η μετάβαση αντιπροσωπεύει μια μετατόπιση από την ηθική της αρετής στον διαδικαστικό χαρακτήρα. Όταν οι νομοθέτες και οι θεσμοί επαναπροσδιορίζουν τη λήψη ιατρικών αποφάσεων ως συνάρτηση συστημάτων και όχι προσωπικών πράξεων, το ηθικό πλαίσιο της ιατρικής αλλάζει. Η λογοδοσία γίνεται διάχυτη, η βλάβη είναι πιο δύσκολο να αποδοθεί και η ευθύνη μετατοπίζεται από τους κλινικούς ιατρούς στις διαδικασίες, από την κρίση στην τήρηση του πρωτοκόλλου. Όταν αναπόφευκτα συμβαίνουν σφάλματα, η επικρατούσα εξήγηση είναι ότι «το σύστημα ακολούθησε τις καθιερωμένες οδηγίες». Η αναγνώριση αυτής της μετάβασης διευκρινίζει τη μετατόπιση από την εξατομικευμένη ηθική λήψη αποφάσεων στη μηχανοποιημένη διαδικαστική συμμόρφωση.
Αυτή η ανησυχία δεν είναι θεωρητική. Η σύγχρονη υγειονομική περίθαλψη αντιμετωπίζει ήδη προκλήσεις που σχετίζονται με την αραιωμένη λογοδοσία. Έχω παρατηρήσει ασθενείς που έχουν υποστεί βλάβη από αποφάσεις που βασίζονται σε αλγόριθμους να χάνονται ανάμεσα στους διαχειριστές, τους προμηθευτές και τα αδιαφανή μοντέλα, χωρίς σαφή απάντηση στο θεμελιώδες ερώτημα: Ποιος πήρε αυτήν την απόφαση; Η τεχνητή νοημοσύνη επιταχύνει σημαντικά αυτό το πρόβλημα. Ένας αλγόριθμος δεν μπορεί να παρέχει ηθικές εξηγήσεις, να ασκεί αυτοσυγκράτηση με βάση τη συνείδηση, να αρνείται ενέργειες λόγω ηθικών ανησυχιών ή να παραδέχεται σφάλματα σε έναν ασθενή ή στην οικογένειά του.
Οι υποστηρικτές της αυξημένης αυτονομίας της Τεχνητής Νοημοσύνης συχνά επικαλούνται την αποτελεσματικότητα ως δικαιολογία. Οι κλινικές είναι υπερφορτωμένες, οι γιατροί βιώνουν επαγγελματική εξουθένωση και οι ασθενείς συχνά περιμένουν μήνες για φροντίδα που θα έπρεπε να διαρκεί μόνο λίγα λεπτά. Αυτές οι ανησυχίες είναι θεμιτές και οποιοσδήποτε έντιμος κλινικός ιατρός τις αναγνωρίζει. Ωστόσο, η αποτελεσματικότητα από μόνη της δεν δικαιολογεί την αλλαγή της ηθικής βάσης της ιατρικής. Τα συστήματα που έχουν βελτιστοποιηθεί για ταχύτητα και κλίμακα συχνά θυσιάζουν την λεπτότητα, τη διακριτικότητα και την ατομική αξιοπρέπεια. Ιστορικά, η ιατρική έχει αντισταθεί σε αυτή την τάση τονίζοντας ότι η φροντίδα είναι ουσιαστικά μια σχέση και όχι μια συναλλαγή.
Η τεχνητή νοημοσύνη κινδυνεύει να ανατρέψει αυτή τη σχέση. Όταν τα συστήματα, και όχι τα άτομα, παρέχουν φροντίδα, ο ασθενής δεν εμπλέκεται πλέον σε μια συμφωνία με έναν κλινικό ιατρό, αλλά γίνεται μέρος μιας ροής εργασίας. Ο γιατρός αναλαμβάνει τον ρόλο του επόπτη της μηχανής ή, το πιο ανησυχητικό, χρησιμεύει ως νομικό προστατευτικό μέσο που απορροφά την ευθύνη για αποφάσεις που δεν έχουν ληφθεί προσωπικά. Με την πάροδο του χρόνου, η κλινική κρίση δίνει τη θέση της στην τήρηση του πρωτοκόλλου και η ηθική ελευθερία σταδιακά μειώνεται.
Η Τεχνητή Νοημοσύνη εισάγει επίσης ένα πιο λεπτό και πιο επικίνδυνο πρόβλημα: την απόκρυψη της αβεβαιότητας. Η ιατρική ζει στην ασάφεια. Τα στοιχεία είναι πιθανοτικά. Οι κατευθυντήριες γραμμές είναι προσωρινές. Οι ασθενείς σπάνια παρουσιάζονται ως καθαρά σύνολα δεδομένων. Οι κλινικοί γιατροί είναι εκπαιδευμένοι όχι μόνο να ενεργούν, αλλά και να διστάζουν - να αναγνωρίζουν πότε οι πληροφορίες είναι ανεπαρκείς, πότε η παρέμβαση μπορεί να προκαλέσει περισσότερη βλάβη παρά όφελος ή πότε η σωστή πορεία είναι να περιμένουν. Φανταστείτε ένα σενάριο στο οποίο η Τεχνητή Νοημοσύνη συνιστά εξιτήριο, αλλά ο σύζυγος του ασθενούς φαίνεται φοβισμένος, υπογραμμίζοντας την ένταση μεταξύ της αλγοριθμικής λήψης αποφάσεων και της ανθρώπινης διαίσθησης. Αυτή η τριβή στον πραγματικό κόσμο υπογραμμίζει τα διακυβεύματα της ασάφειας.
Τα συστήματα τεχνητής νοημοσύνης δεν βιώνουν αβεβαιότητα. Παράγουν αποτελέσματα. Όταν είναι λανθασμένα, συχνά το κάνουν με αδικαιολόγητη σιγουριά. Αυτό το χαρακτηριστικό δεν αποτελεί ελάττωμα προγραμματισμού, αλλά εγγενές χαρακτηριστικό της στατιστικής μοντελοποίησης. Σε αντίθεση με τους έμπειρους κλινικούς ιατρούς που εκφράζουν ανοιχτά αμφιβολίες, τα μεγάλα γλωσσικά μοντέλα και τα συστήματα μηχανικής μάθησης δεν μπορούν να αναγνωρίσουν τους δικούς τους περιορισμούς. Παράγουν εύλογες απαντήσεις ακόμη και όταν τα δεδομένα είναι ανεπαρκή. Στην ιατρική, η αληθοφάνεια χωρίς τεκμηρίωση μπορεί να είναι επικίνδυνη.
Καθώς αυτά τα συστήματα ενσωματώνονται νωρίτερα στις κλινικές ροές εργασίας, τα αποτελέσματά τους επηρεάζουν ολοένα και περισσότερο τις επακόλουθες αποφάσεις. Με την πάροδο του χρόνου, οι κλινικοί γιατροί μπορεί να αρχίσουν να εμπιστεύονται τις συστάσεις όχι λόγω της εγκυρότητάς τους, αλλά επειδή έχουν ομαλοποιηθεί. Η κρίση σταδιακά μετατοπίζεται από την ενεργητική συλλογιστική στην παθητική αποδοχή. Σε τέτοιες περιπτώσεις, η «ανθρώπινη παρέμβαση» χρησιμεύει ως κάτι περισσότερο από μια συμβολική προστασία.
Οι υποστηρικτές υποστηρίζουν συχνά ότι η Τεχνητή Νοημοσύνη θα «ενισχύσει» μόνο τους κλινικούς γιατρούς αντί να τους αντικαταστήσει. Ωστόσο, αυτή η διαβεβαίωση είναι αμφιλεγόμενη. Μόλις η Τεχνητή Νοημοσύνη επιδείξει βελτίωση στην αποδοτικότητα, οι οικονομικές και θεσμικές πιέσεις τείνουν να οδηγήσουν σε αυξημένη αυτονομία. Εάν ένα σύστημα μπορεί να αναπληρώσει με ασφάλεια τις συνταγές, σύντομα μπορεί να του επιτραπεί να τις ξεκινήσει. Εάν μπορεί να διαγνώσει με ακρίβεια κοινές παθήσεις, η αναγκαιότητα της ιατρικής αξιολόγησης αμφισβητείται. Εάν ξεπεράσει τους ανθρώπους σε ελεγχόμενα σημεία αναφοράς, η ανοχή στην ανθρώπινη μεταβλητότητα μειώνεται.
Δεδομένων αυτών των τάσεων, η εφαρμογή συγκεκριμένων μέτρων ασφαλείας είναι απαραίτητη. Για παράδειγμα, οι υποχρεωτικοί έλεγχοι ασυμφωνιών στο 5% των αποφάσεων που βασίζονται στην Τεχνητή Νοημοσύνη θα μπορούσαν να χρησιμεύσουν ως συγκεκριμένος έλεγχος, διασφαλίζοντας την ευθυγράμμιση μεταξύ των συστάσεων της Τεχνητής Νοημοσύνης και της ανθρώπινης κλινικής κρίσης, παρέχοντας παράλληλα στις ρυθμιστικές αρχές και στα διοικητικά συμβούλια των νοσοκομείων εφαρμόσιμες μετρήσεις για την παρακολούθηση της ενσωμάτωσης της Τεχνητής Νοημοσύνης.
Αυτά τα ερωτήματα δεν τίθενται με κακόβουλη πρόθεση. Αναδύονται φυσικά σε συστήματα που επικεντρώνονται στον περιορισμό του κόστους και την επεκτασιμότητα. Ωστόσο, υποδεικνύουν ένα μέλλον όπου η ανθρώπινη κρίση γίνεται η εξαίρεση και όχι ο κανόνας. Σε ένα τέτοιο σενάριο, τα άτομα με πόρους θα συνεχίσουν να λαμβάνουν ανθρώπινη φροντίδα, ενώ άλλα θα κατευθύνονται μέσω αυτοματοποιημένων διαδικασιών. Η διεπίπεδη ιατρική δεν θα προκύψει από ιδεολογία, αλλά από βελτιστοποίηση.
Αυτό που καθιστά αυτή τη στιγμή ιδιαίτερα επισφαλή είναι η απουσία σαφών γραμμών λογοδοσίας. Όταν μια απόφαση που βασίζεται στην Τεχνητή Νοημοσύνη βλάπτει έναν ασθενή, ποιος είναι υπεύθυνος; Επιβλέπει ο κλινικός ιατρός κατ' όνομα το σύστημα; Το ίδρυμα που το ανέπτυξε; Ο προμηθευτής που εκπαίδευσε το μοντέλο; Η ρυθμιστική αρχή που ενέκρινε τη χρήση του; Χωρίς σαφείς απαντήσεις, η ευθύνη εξαφανίζεται. Και όταν η ευθύνη εξαφανίζεται, σύντομα ακολουθεί η εμπιστοσύνη.
Η ιατρική εξαρτάται ουσιαστικά από την εμπιστοσύνη. Οι ασθενείς εναποθέτουν το σώμα τους, τους φόβους τους και συχνά τη ζωή τους στα χέρια των κλινικών ιατρών. Αυτή η εμπιστοσύνη δεν μπορεί να μεταβιβαστεί σε έναν αλγόριθμο, ανεξάρτητα από την πολυπλοκότητά του. Βασίζεται στη διαβεβαίωση ότι υπάρχει ένας άνθρωπος - κάποιος ικανός να ακούει, να προσαρμόζεται και να είναι υπόλογος για τις πράξεις του.
Η πλήρης απόρριψη της τεχνητής νοημοσύνης είναι περιττή. Όταν χρησιμοποιείται με σύνεση, η Τεχνητή Νοημοσύνη μπορεί να μειώσει τα γραφειοκρατικά βάρη, να εντοπίσει μοτίβα που μπορεί να μην εντοπίζονται από τον άνθρωπο και να υποστηρίξει τη λήψη κλινικών αποφάσεων. Μπορεί να επιτρέψει στους γιατρούς να αφιερώνουν περισσότερο χρόνο στη φροντίδα των ασθενών παρά στη διοικητική εργασία. Ωστόσο, η υλοποίηση αυτού του μέλλοντος απαιτεί σαφή δέσμευση για τη διατήρηση της ανθρώπινης ευθύνης στον πυρήνα της ιατρικής πρακτικής.
Η «ανθρώπινη παρουσία» πρέπει να σημαίνει κάτι περισσότερο από συμβολική εποπτεία. Θα πρέπει να απαιτεί ένα συγκεκριμένο άτομο να είναι υπεύθυνο για κάθε ιατρική απόφαση, να κατανοεί τη λογική της και να διατηρεί τόσο την εξουσία όσο και την υποχρέωση να παρακάμπτει τις αλγοριθμικές συστάσεις. Πρέπει επίσης να συνεπάγεται διαφάνεια, εξηγησιμότητα και ενημερωμένη συναίνεση του ασθενούς, καθώς και δέσμευση για επένδυση σε ανθρώπινους κλινικούς ιατρούς αντί για την αντικατάστασή τους με Τεχνητή Νοημοσύνη.
Ο πρωταρχικός κίνδυνος δεν είναι η υπερβολική ισχύς της τεχνητής νοημοσύνης, αλλά μάλλον η προθυμία των θεσμών να απαλλάξουν από την ευθύνη. Στην επιδίωξη της αποτελεσματικότητας και της καινοτομίας, υπάρχει ο κίνδυνος η ιατρική να γίνει ένας τεχνικά προηγμένος, διοικητικά απλοποιημένος τομέας, αλλά χωρίς ηθική υπόσταση.
Καθώς εξετάζουμε το μέλλον, είναι απαραίτητο να αναρωτηθούμε: Τι είδους θεραπευτή οραματιζόμαστε στο πλευρό του ασθενούς το 2035; Αυτό το ερώτημα απαιτεί συλλογική ηθική φαντασία, ενθαρρύνοντάς μας να διαμορφώσουμε ένα μέλλον όπου η ανθρώπινη ευθύνη και η συμπονετική φροντίδα θα παραμείνουν στην καρδιά της ιατρικής πρακτικής. Η κινητοποίηση της συλλογικής δράσης θα είναι ζωτικής σημασίας για να διασφαλιστεί ότι οι πρόοδοι στην τεχνητή νοημοσύνη θα ενισχύσουν, αντί να υπονομεύσουν, αυτές τις θεμελιώδεις αξίες.
Η τεχνητή νοημοσύνη δεν έχει λάβει άδεια για την άσκηση της ιατρικής. Ωστόσο, η ιατρική αναδιαμορφώνεται αθόρυβα γύρω από συστήματα που δεν φέρουν ηθικό βάρος. Εάν αυτή η διαδικασία συνεχιστεί ανεξέλεγκτα, μπορεί μια μέρα να ανακαλύψουμε ότι ο γιατρός δεν έχει αντικατασταθεί από μια μηχανή, αλλά από ένα πρωτόκολλο - και ότι όταν συμβεί βλάβη, δεν υπάρχει κανείς που να λογοδοτεί γι' αυτήν.
Αυτό δεν θα ήταν πρόοδος. Θα ήταν παραίτηση.
-
Τζόζεφ Βάρον, MD, είναι εντατικός ιατρός, καθηγητής και Πρόεδρος της Ανεξάρτητης Ιατρικής Συμμαχίας. Έχει συγγράψει πάνω από 980 δημοσιεύσεις με κριτές και είναι Αρχισυντάκτης του Journal of Independent Medicine.
Προβολή όλων των μηνυμάτων