ΚΟΙΝΟΠΟΙΗΣΗ | ΕΚΤΥΠΩΣΗ | ΗΛΕΚΤΡΟΝΙΚΗ ΔΙΕΥΘΥΝΣΗ
Πριν από την Covid, θα περιέγραφα τον εαυτό μου ως τεχνολογικά αισιόδοξο. Οι νέες τεχνολογίες σχεδόν πάντα εμφανίζονται εν μέσω υπερβολικών φόβων. Οι σιδηρόδρομοι υποτίθεται ότι προκαλούν ψυχικές διαταραχές, τα ποδήλατα θεωρούνταν ότι κάνουν τις γυναίκες στείρες ή τρελές, και ο πρώιμος ηλεκτρισμός κατηγορήθηκε για τα πάντα, από την ηθική παρακμή έως τη σωματική κατάρρευση. Με την πάροδο του χρόνου, αυτές οι ανησυχίες εξασθένησαν, οι κοινωνίες προσαρμόστηκαν και το βιοτικό επίπεδο ανέβηκε. Το μοτίβο ήταν αρκετά οικείο ώστε η τεχνητή νοημοσύνη φαινόταν πιθανό να το ακολουθήσει: ανατρεπτική, μερικές φορές κακομεταχειρισμένη, αλλά τελικά διαχειρίσιμη.
Τα χρόνια της Covid διατάραξαν αυτή την εμπιστοσύνη — όχι επειδή η τεχνολογία απέτυχε, αλλά επειδή απέτυχαν οι θεσμοί.
Σε μεγάλο μέρος του κόσμου, κυβερνήσεις και φορείς εμπειρογνωμόνων ανταποκρίθηκαν στην αβεβαιότητα με πρωτοφανείς κοινωνικές και βιοϊατρικές παρεμβάσεις, δικαιολογημένες από μοντέλα χειρότερης περίπτωσης και επιβαλλόμενες με αξιοσημείωτη βεβαιότητα. Οι ανταγωνιστικές υποθέσεις περιθωριοποιήθηκαν αντί να συζητηθούν. Τα μέτρα έκτακτης ανάγκης ενισχύθηκαν σε μακροπρόθεσμη πολιτική. Όταν τα στοιχεία μετατοπίστηκαν, οι παραδοχές σφαλμάτων ήταν σπάνιες και η λογοδοσία ακόμη πιο σπάνια. Η εμπειρία αποκάλυψε ένα βαθύτερο πρόβλημα από οποιοδήποτε μεμονωμένο λάθος πολιτικής: οι σύγχρονοι θεσμοί φαίνονται ανεπαρκώς εξοπλισμένοι για να διαχειριστούν την αβεβαιότητα χωρίς υπερβολές.
Αυτό το μάθημα πλέον επηρεάζει σε μεγάλο βαθμό τις συζητήσεις σχετικά με την τεχνητή νοημοσύνη.
Το χάσμα κινδύνου της τεχνητής νοημοσύνης
Σε γενικές γραμμές, η ανησυχία για την προηγμένη Τεχνητή Νοημοσύνη χωρίζεται σε δύο στρατόπεδα. Μια ομάδα -που συνδέεται με στοχαστές όπως ο Ελιέζερ Γιουντκόφσκι και ο Νέιτ Σοάρες- υποστηρίζει ότι η επαρκώς προηγμένη Τεχνητή Νοημοσύνη είναι εξ ορισμού καταστροφικά επικίνδυνη. Στην σκόπιμα αυστηρή διατύπωσή τους, Αν κάποιος το χτίσει, όλοι πεθαίνουν, το πρόβλημα δεν είναι οι κακές προθέσεις αλλά τα κίνητρα: ο ανταγωνισμός διασφαλίζει ότι κάποιος θα κάνει ό,τι περνάει από το χέρι του και μόλις ένα σύστημα ξεφύγει από τον ουσιαστικό έλεγχο, οι προθέσεις δεν έχουν πλέον σημασία.
Ένα δεύτερο στρατόπεδο, που περιλαμβάνει προσωπικότητες όπως οι Stuart Russell, Nick Bostrom και Max Tegmark, λαμβάνει επίσης σοβαρά υπόψη τον κίνδυνο της Τεχνητής Νοημοσύνης, αλλά είναι πιο αισιόδοξο ότι η ευθυγράμμιση, η προσεκτική διακυβέρνηση και η σταδιακή ανάπτυξη μπορούν να διατηρήσουν τα συστήματα υπό ανθρώπινο έλεγχο.
Παρά τις διαφορές τους, και τα δύο στρατόπεδα συγκλίνουν σε ένα συμπέρασμα: η ανεμπόδιστη ανάπτυξη της Τεχνητής Νοημοσύνης είναι επικίνδυνη και είναι απαραίτητη κάποια μορφή εποπτείας, συντονισμού ή περιορισμού. Εκεί όπου διαφωνούν είναι ως προς τη σκοπιμότητα και τον επείγοντα χαρακτήρα. Αυτό που σπάνια εξετάζεται, ωστόσο, είναι το κατά πόσον τα θεσμικά όργανα που αναμένεται να παράσχουν αυτόν τον περιορισμό είναι τα ίδια κατάλληλα για τον ρόλο.
Ο Covid υποδηλώνει λόγους αμφιβολίας.
Η Covid δεν ήταν απλώς μια κρίση δημόσιας υγείας. Ήταν ένα ζωντανό πείραμα διακυβέρνησης καθοδηγούμενης από ειδικούς υπό συνθήκες αβεβαιότητας. Αντιμέτωπες με ελλιπή δεδομένα, οι αρχές επέλεγαν επανειλημμένα μέγιστες παρεμβάσεις που δικαιολογούνταν από κερδοσκοπικές βλάβες. Η διαφωνία συχνά αντιμετωπίζονταν ως ηθική αποτυχία παρά ως επιστημονική αναγκαιότητα. Οι πολιτικές υπερασπίζονταν όχι μέσω διαφανούς ανάλυσης κόστους-οφέλους, αλλά μέσω επικλήσεων στην εξουσία και φόβου για υποθετικά μέλλοντα.
Αυτό το μοτίβο έχει σημασία επειδή αποκαλύπτει πώς συμπεριφέρονται οι σύγχρονοι θεσμοί όταν τα διακυβεύματα παρουσιάζονται ως υπαρξιακά. Τα κίνητρα μετατοπίζονται προς την αποφασιστικότητα, τον αφηγηματικό έλεγχο και την ηθική βεβαιότητα. Η διόρθωση σφαλμάτων καθίσταται δαπανηρή για τη φήμη. Η προφύλαξη παύει να είναι εργαλείο και γίνεται δόγμα.
Το μάθημα δεν είναι ότι οι ειδικοί έχουν μοναδικά ελαττώματα. Είναι ότι οι θεσμοί ανταμείβουν την υπερβολική αυτοπεποίθηση πολύ πιο αξιόπιστα από την ταπεινότητα, ειδικά όταν η πολιτική, η χρηματοδότηση και ο δημόσιος φόβος συμβαδίζουν. Από τη στιγμή που διεκδικούνται εξαιρετικές εξουσίες στο όνομα της ασφάλειας, σπάνια παραδίδονται οικειοθελώς.
Αυτές ακριβώς είναι οι δυναμικές που είναι πλέον ορατές στις συζητήσεις για την εποπτεία της Τεχνητής Νοημοσύνης.
Η Μηχανή του «Τι θα γινόταν αν»
Μια επαναλαμβανόμενη δικαιολογία για εκτεταμένη κρατική παρέμβαση είναι ο υποθετικός κακός δρώντας: Τι θα γίνει αν κάποιος τρομοκράτης το κατασκευάσει αυτό; Τι θα γίνει αν ένα αδίστακτο κράτος το κάνει αυτό; Από αυτή την υπόθεση πηγάζει το επιχείρημα ότι οι κυβερνήσεις πρέπει να ενεργούν προληπτικά, σε μεγάλη κλίμακα και συχνά μυστικά, για να αποτρέψουν μια καταστροφή.
Κατά τη διάρκεια της Covid, παρόμοια λογική δικαιολόγησε τις εκτεταμένες ατζέντες βιοϊατρικής έρευνας, τις άδειες έκτακτης ανάγκης και τους κοινωνικούς ελέγχους. Η συλλογιστική ήταν κυκλική: επειδή κάτι επικίνδυνο ενδέχεται να Σε περίπτωση που συμβεί αυτό, το κράτος πρέπει να λάβει έκτακτα μέτρα τώρα — μέτρα που η ίδια ενείχαν σημαντικούς, ελάχιστα κατανοητούς κινδύνους.
Η διακυβέρνηση της Τεχνητής Νοημοσύνης διαμορφώνεται ολοένα και περισσότερο με τον ίδιο τρόπο. Ο κίνδυνος δεν είναι μόνο ότι τα συστήματα Τεχνητής Νοημοσύνης μπορεί να συμπεριφέρονται απρόβλεπτα, αλλά και ότι ο φόβος αυτής της πιθανότητας θα νομιμοποιήσει τη μόνιμη διακυβέρνηση έκτακτης ανάγκης - τον κεντρικό έλεγχο των υπολογισμών, της έρευνας και των ροών πληροφοριών - με το σκεπτικό ότι δεν υπάρχει εναλλακτική λύση.
Ιδιωτικός Κίνδυνος, Δημόσιος Κίνδυνος
Μια υποτιμημένη διάκριση σε αυτές τις συζητήσεις είναι μεταξύ των κινδύνων που δημιουργούνται από ιδιωτικούς φορείς και των κινδύνων που δημιουργούνται από την κρατική εξουσία. Οι ιδιωτικές εταιρείες περιορίζονται —ατελώς αλλά ουσιαστικά— από την ευθύνη, τον ανταγωνισμό, τη φήμη και την πειθαρχία της αγοράς. Αυτοί οι περιορισμοί δεν εξαλείφουν τη βλάβη, αλλά δημιουργούν βρόχους ανατροφοδότησης.
Οι κυβερνήσεις λειτουργούν διαφορετικά. Όταν τα κράτη ενεργούν στο όνομα της πρόληψης καταστροφών, η ανατροφοδότηση αποδυναμώνεται. Οι αποτυχίες μπορούν να αναταξινομηθούν ως αναγκαιότητες. Το κόστος μπορεί να εξωτερικευτεί. Η μυστικότητα μπορεί να δικαιολογηθεί από την ασφάλεια. Οι υποθετικές μελλοντικές ζημιές γίνονται μοχλοί πολιτικής στο παρόν.
Αρκετοί στοχαστές της Τεχνητής Νοημοσύνης το αναγνωρίζουν αυτό έμμεσα. Ο Μπόστρομ έχει προειδοποιήσει για τις επιπτώσεις του «κλειδώματος» — όχι μόνο από τα συστήματα Τεχνητής Νοημοσύνης, αλλά και από τις δομές διακυβέρνησης που δημιουργούνται σε στιγμές πανικού. Η έκκληση του Άντονι Αγκίρε για παγκόσμια αυτοσυγκράτηση, αν και λογικά συνεπής, βασίζεται σε διεθνείς φορείς συντονισμού των οποίων το πρόσφατο ιστορικό σε θέματα ταπεινότητας και διόρθωσης σφαλμάτων είναι κακό. Ακόμη και πιο μετριοπαθείς προτάσεις υποθέτουν ότι οι ρυθμιστικές αρχές είναι ικανές να αντισταθούν στην πολιτικοποίηση και την υστέρηση της αποστολής.
Ο Covid μας δίνει λίγους λόγους να είμαστε σίγουροι για αυτή την υπόθεση.
Το παράδοξο της εποπτείας
Αυτό οδηγεί σε ένα ανησυχητικό παράδοξο στην καρδιά της συζήτησης για την Τεχνητή Νοημοσύνη. Αν κάποιος πιστεύει πραγματικά ότι η προηγμένη Τεχνητή Νοημοσύνη πρέπει να περιοριστεί, να επιβραδυνθεί ή να σταματήσει, οι κυβερνήσεις και οι διακρατικοί οργανισμοί είναι πιθανότερο να έχουν την εξουσία να το πράξουν. Ωστόσο, αυτοί είναι ακριβώς οι παράγοντες των οποίων η πρόσφατη συμπεριφορά δίνει τη λιγότερη εμπιστοσύνη στην περιορισμένη, αναστρέψιμη χρήση αυτής της εξουσίας.
Το πλαίσιο έκτακτης ανάγκης είναι ασταθές. Η εξουσία που αποκτάται για τη διαχείριση υποθετικών κινδύνων τείνει να επιμένει και να επεκτείνεται. Οι θεσμοί σπάνια υποβαθμίζουν τη δική τους σημασία. Στο πλαίσιο της Τεχνητής Νοημοσύνης, αυτό εγείρει την πιθανότητα η αντίδραση στον κίνδυνο της Τεχνητής Νοημοσύνης να εδραιώνει εύθραυστα, πολιτικοποιημένα συστήματα ελέγχου που είναι πιο δύσκολο να αποσυναρμολογηθούν από οποιαδήποτε μεμονωμένη τεχνολογία.
Ο κίνδυνος, με άλλα λόγια, δεν είναι μόνο ότι η Τεχνητή Νοημοσύνη διαφεύγει του ανθρώπινου ελέγχου, αλλά και ότι ο φόβος της επιταχύνει τη συγκέντρωση εξουσίας σε θεσμούς που έχουν ήδη αποδειχθεί ότι αργούν να παραδεχτούν λάθη και είναι εχθρικοί προς τη διαφωνία.
Επανεξέταση του πραγματικού κινδύνου
Αυτό δεν αποτελεί επιχείρημα για εφησυχασμό σχετικά με την Τεχνητή Νοημοσύνη, ούτε άρνηση του ότι οι ισχυρές τεχνολογίες μπορούν να προκαλέσουν πραγματική ζημιά. Είναι ένα επιχείρημα για τη διεύρυνση του πλαισίου. Η θεσμική αποτυχία είναι από μόνη της μια υπαρξιακή μεταβλητή. Ένα σύστημα που προϋποθέτει καλοπροαίρετη, αυτοδιορθούμενη διακυβέρνηση δεν είναι ασφαλέστερο από ένα σύστημα που προϋποθέτει καλοπροαίρετη, ευθυγραμμισμένη υπερ-νοημοσύνη.
Πριν από την Covid, ήταν λογικό να αποδίδουμε το μεγαλύτερο μέρος της τεχνολογικής απαισιοδοξίας στην ανθρώπινη προκατάληψη της αρνητικότητας - την τάση να πιστεύουμε ότι οι προκλήσεις της γενιάς μας είναι μοναδικά μη διαχειρίσιμες. Μετά την Covid, ο σκεπτικισμός μοιάζει λιγότερο με προκατάληψη και περισσότερο με εμπειρία.
Το κεντρικό ερώτημα στη συζήτηση για την Τεχνητή Νοημοσύνη δεν είναι επομένως μόνο το αν οι μηχανές μπορούν να ευθυγραμμιστούν με τις ανθρώπινες αξίες, αλλά και το αν οι σύγχρονοι θεσμοί μπορούν να εμπιστευτούν τη διαχείριση της αβεβαιότητας χωρίς να την εντείνουν. Εάν αυτή η εμπιστοσύνη έχει διαβρωθεί -και η Covid υπονοεί ότι έχει- τότε οι εκκλήσεις για εκτεταμένη εποπτεία της Τεχνητής Νοημοσύνης αξίζουν τουλάχιστον τον ίδιο έλεγχο με τους ισχυρισμούς περί τεχνολογικής αναπόφευκτης φύσης.
Ο μεγαλύτερος κίνδυνος μπορεί να μην είναι ότι η Τεχνητή Νοημοσύνη θα γίνει πολύ ισχυρή, αλλά ότι ο φόβος αυτής της πιθανότητας δικαιολογεί μορφές ελέγχου με τις οποίες αργότερα ανακαλύπτουμε ότι είναι πολύ πιο δύσκολο να ζήσουμε - ή να ξεφύγουμε.
-
Ο Ρότζερ Μπέιτ είναι υπότροφος του ιδρύματος Brownstone, ανώτερος συνεργάτης στο Διεθνές Κέντρο για το Δίκαιο και την Οικονομία (Ιανουάριος 2023-σήμερα), μέλος του διοικητικού συμβουλίου του οργανισμού Africa Fighting Malaria (Σεπτέμβριος 2000-σήμερα) και συνεργάτης στο Ινστιτούτο Οικονομικών Υποθέσεων (Ιανουάριος 2000-σήμερα).
Προβολή όλων των μηνυμάτων