Αυτό το άρθρο είναι πάνω από 4 μηνών
Ξεχάστε τις απεικονίσεις του Χόλιγουντ με ρομπότ όπλο που τρέχουν άγρια στους δρόμους – η πραγματικότητα της τεχνητής νοημοσύνης είναι πολύ πιο επικίνδυνη, προειδοποιεί ο ιστορικός και συγγραφέας σε ένα αποκλειστικό απόσπασμα από το νέο του
Σε όλη την ιστορία, πολλές παραδόσεις πίστευαν ότι κάποιο μοιραίο ελάττωμα στην ανθρώπινη φύση μας δελεάζει να επιδιώξουμε δυνάμεις που δεν ξέρουμε πώς να χειριστούμε. Ο ελληνικός μύθος του Φαέθωνα μίλησε για ένα αγόρι που ανακαλύπτει ότι είναι ο γιος του Ήλιου, του θεού του ήλιου. Θέλοντας να αποδείξει τη θεϊκή του καταγωγή, ο Φαέθων απαιτεί το προνόμιο να οδηγεί το άρμα του ήλιου. Ο Ήλιος προειδοποιεί τον Φαέθωνα ότι κανένας άνθρωπος δεν μπορεί να ελέγξει τα ουράνια άλογα που τραβούν το ηλιακό άρμα. Όμως ο Φαέθων επιμένει, μέχρι να υποχωρήσει ο θεός ήλιος. Αφού σηκώθηκε περήφανα στον ουρανό, ο Φαέθων όντως χάνει τον έλεγχο του άρματος. Ο ήλιος απομακρύνεται από την πορεία του, καίγοντας όλη τη βλάστηση, σκοτώνοντας πολλά όντα και απειλώντας να κάψει την ίδια τη Γη. Ο Δίας επεμβαίνει και χτυπάει με κεραυνό τον Φαέθωνα. Ο αλαζονικός άνθρωπος πέφτει από τον ουρανό σαν αστέρι που πέφτει και ο ίδιος φλέγεται. Οι θεοί επαναφέρουν τον έλεγχο του ουρανού και σώζουν τον κόσμο.
Δύο χιλιάδες χρόνια αργότερα, όταν η Βιομηχανική Επανάσταση έκανε τα πρώτα της βήματα και οι μηχανές άρχισαν να αντικαθιστούν τους ανθρώπους σε πολυάριθμες εργασίες, ο Johann Wolfgang von Goethe δημοσίευσε μια παρόμοια προειδοποιητική ιστορία με τίτλο The Sorcerer's Apprentice. Το ποίημα του Γκαίτε (αργότερα δημοφιλές ως animation της Walt Disney με πρωταγωνιστή τον Μίκυ Μάους) λέει για έναν ηλικιωμένο μάγο που αφήνει έναν νεαρό μαθητευόμενο υπεύθυνο του εργαστηρίου του και του δίνει κάποιες δουλειές να κάνει όσο λείπει, όπως να φέρει νερό από το ποτάμι. Ο μαθητευόμενος αποφασίζει να κάνει τα πράγματα πιο εύκολα για τον εαυτό του και, χρησιμοποιώντας ένα από τα ξόρκια του μάγου, μαγεύει μια σκούπα για να του φέρει το νερό. Όμως ο μαθητευόμενος δεν ξέρει πώς να σταματήσει τη σκούπα, που φέρνει αμείλικτα όλο και περισσότερο νερό, απειλώντας να πλημμυρίσει το εργαστήριο. Πανικόβλητος, ο μαθητευόμενος κόβει τη μαγεμένη σκούπα στα δύο με ένα τσεκούρι, για να δει κάθε μισό να γίνεται άλλη σκούπα. Τώρα δύο μαγεμένες σκούπες πλημμυρίζουν το εργαστήριο με νερό. Όταν ο γέρος μάγος επιστρέφει, ο μαθητευόμενος παρακαλεί για βοήθεια: «Τα πνεύματα που κάλεσα, τώρα δεν μπορώ να απαλλαγώ ξανά από τον εαυτό μου». Ο μάγος σπάει αμέσως το ξόρκι και σταματά την πλημμύρα. Το μάθημα για τον μαθητευόμενο – και για την ανθρωπότητα – είναι ξεκάθαρο: ποτέ μην καλείτε δυνάμεις που δεν μπορείτε να ελέγξετε.
Τι μας λένε οι προειδοποιητικοί μύθοι του μαθητευόμενου και του Φαέθωνα στον 21ο αιώνα; Εμείς οι άνθρωποι προφανώς αρνηθήκαμε να λάβουμε υπόψη τις προειδοποιήσεις τους. Έχουμε ήδη βγάλει το κλίμα της Γης εκτός ισορροπίας και έχουμε συγκεντρώσει δισεκατομμύρια μαγεμένες σκούπες, drones, chatbots και άλλα αλγοριθμικά πνεύματα που μπορεί να ξεφύγουν από τον έλεγχό μας και να εξαπολύσουν μια πλημμύρα συνεπειών. Τι να κάνουμε λοιπόν; Οι μύθοι δεν δίνουν απαντήσεις, παρά μόνο να περιμένουμε κάποιον θεό ή μάγο να μας σώσει.
Ο μύθος του Φαέθωνα και το ποίημα του Γκαίτε αποτυγχάνουν να παρέχουν χρήσιμες συμβουλές επειδή παρερμηνεύουν τον τρόπο με τον οποίο οι άνθρωποι αποκτούν δύναμη. Και στους δύο μύθους, ένας και μόνο άνθρωπος αποκτά τεράστια δύναμη, αλλά στη συνέχεια διαφθείρεται από ύβρις και απληστία. Το συμπέρασμα είναι ότι η ελαττωματική ατομική μας ψυχολογία μας κάνει να κάνουμε κατάχρηση εξουσίας. Αυτό που διαφεύγει από αυτήν την ωμή ανάλυση είναι ότι η ανθρώπινη δύναμη δεν είναι ποτέ αποτέλεσμα ατομικής πρωτοβουλίας. Η δύναμη πηγάζει πάντα από τη συνεργασία μεταξύ μεγάλου αριθμού ανθρώπων. Συνεπώς, δεν είναι η ατομική μας ψυχολογία που μας κάνει να κάνουμε κατάχρηση εξουσίας. Άλλωστε, μαζί με την απληστία, την ύβριση και τη σκληρότητα, οι άνθρωποι είναι επίσης ικανοί για αγάπη, συμπόνια, ταπεινοφροσύνη και χαρά. Είναι αλήθεια ότι ανάμεσα στα χειρότερα μέλη του είδους μας, η απληστία και η σκληρότητα κυριαρχούν και οδηγούν τους κακούς ηθοποιούς στην κατάχρηση εξουσίας. Γιατί όμως οι ανθρώπινες κοινωνίες θα επέλεγαν να εμπιστευτούν την εξουσία στα χειρότερα μέλη τους; Οι περισσότεροι Γερμανοί το 1933, για παράδειγμα, δεν ήταν ψυχοπαθείς. Γιατί λοιπόν ψήφισαν τον Χίτλερ;
Η τάση μας να καλούμε δυνάμεις που δεν μπορούμε να ελέγξουμε δεν πηγάζει από την ατομική ψυχολογία αλλά από τον μοναδικό τρόπο που το είδος μας συνεργάζεται σε μεγάλους αριθμούς. Η ανθρωπότητα αποκτά τεράστια δύναμη με την οικοδόμηση μεγάλων δικτύων συνεργασίας, αλλά ο τρόπος με τον οποίο είναι χτισμένα τα δίκτυά μας μας προδιαθέτει να χρησιμοποιούμε την εξουσία χωρίς σύνεση. Διότι τα περισσότερα από τα δίκτυά μας έχουν χτιστεί και διατηρηθεί με τη διάδοση μυθοπλασιών, φαντασιώσεων και μαζικών ψευδαισθήσεων – που κυμαίνονται από μαγεμένα σκουπόξυλα μέχρι χρηματοοικονομικά συστήματα. Το πρόβλημά μας, λοιπόν, είναι πρόβλημα δικτύου. Συγκεκριμένα, πρόκειται για πρόβλημα ενημέρωσης. Διότι η πληροφόρηση είναι η κόλλα που συγκρατεί τα δίκτυα και όταν οι άνθρωποι τροφοδοτούνται με κακές πληροφορίες είναι πιθανό να πάρουν κακές αποφάσεις, ανεξάρτητα από το πόσο σοφοί και ευγενικοί είναι προσωπικά.
Στις πρόσφατες γενιές η ανθρωπότητα γνώρισε τη μεγαλύτερη αύξηση που έγινε ποτέ τόσο στην ποσότητα όσο και στην ταχύτητα της παραγωγής πληροφοριών μας. Κάθε smartphone περιέχει περισσότερες πληροφορίες από την αρχαία Βιβλιοθήκη της Αλεξάνδρειας και δίνει τη δυνατότητα στον ιδιοκτήτη του να συνδεθεί στιγμιαία με δισεκατομμύρια άλλους ανθρώπους σε όλο τον κόσμο. Ωστόσο, με όλες αυτές τις πληροφορίες να κυκλοφορούν με ταχύτητες που κόβουν την ανάσα, η ανθρωπότητα είναι πιο κοντά από ποτέ στον αφανισμό του εαυτού της.
Παρά -ή ίσως λόγω- του θησαυρού των δεδομένων μας, συνεχίζουμε να εκτοξεύουμε αέρια του θερμοκηπίου στην ατμόσφαιρα, να μολύνουμε ποτάμια και ωκεανούς, να κόβουμε δάση, να καταστρέφουμε ολόκληρα ενδιαιτήματα, να οδηγούμε αμέτρητα είδη σε εξαφάνιση και να θέτουμε σε κίνδυνο τα οικολογικά θεμέλια των δικών μας είδος. Παράγουμε επίσης όλο και πιο ισχυρά όπλα μαζικής καταστροφής, από θερμοπυρηνικές βόμβες έως ιούς της ημέρας της μοίρας. Οι ηγέτες μας δεν έχουν πληροφορίες σχετικά με αυτούς τους κινδύνους, αλλά αντί να συνεργάζονται για την εξεύρεση λύσεων, πλησιάζουν περισσότερο σε έναν παγκόσμιο πόλεμο.
Η ύπαρξη ακόμη περισσότερων πληροφοριών θα έκανε τα πράγματα καλύτερα - ή χειρότερα; Σύντομα θα μάθουμε. Πολλές εταιρείες και κυβερνήσεις βρίσκονται σε έναν αγώνα δρόμου για την ανάπτυξη της πιο ισχυρής τεχνολογίας πληροφοριών στην ιστορία - AI. Ορισμένοι κορυφαίοι επιχειρηματίες, όπως ο Αμερικανός επενδυτής Marc Andreessen, πιστεύουν ότι η τεχνητή νοημοσύνη θα λύσει επιτέλους όλα τα προβλήματα της ανθρωπότητας. Στις 6 Ιουνίου 2023, ο Andreessen δημοσίευσε ένα δοκίμιο με τίτλο Γιατί το AI θα σώσει τον κόσμο , γεμάτο με τολμηρές δηλώσεις όπως: «Είμαι εδώ για να φέρω τα καλά νέα: η τεχνητή νοημοσύνη δεν θα καταστρέψει τον κόσμο και στην πραγματικότητα μπορεί να τον σώσει». Και κατέληξε: «Η ανάπτυξη και ο πολλαπλασιασμός της τεχνητής νοημοσύνης – μακριά από έναν κίνδυνο που θα έπρεπε να φοβόμαστε – είναι μια ηθική υποχρέωση που έχουμε απέναντι στον εαυτό μας, στα παιδιά μας και στο μέλλον μας».
Άλλοι είναι πιο δύσπιστοι. Όχι μόνο φιλόσοφοι και κοινωνικοί επιστήμονες, αλλά και πολλοί κορυφαίοι ειδικοί και επιχειρηματίες της τεχνητής νοημοσύνης, όπως ο Yoshua Bengio, ο Geoffrey Hinton, ο Sam Altman, ο Elon Musk και ο Mustafa Suleyman, έχουν προειδοποιήσει ότι η τεχνητή νοημοσύνη θα μπορούσε να καταστρέψει τον πολιτισμό μας. Σε μια έρευνα του 2023 με 2.778 ερευνητές τεχνητής νοημοσύνης, περισσότεροι από το ένα τρίτο έδωσαν τουλάχιστον 10% πιθανότητα η προηγμένη τεχνητή νοημοσύνη να οδηγήσει σε αποτελέσματα τόσο άσχημα όσο η ανθρώπινη εξαφάνιση. Πέρυσι, σχεδόν 30 κυβερνήσεις – συμπεριλαμβανομένων εκείνων της Κίνας, των ΗΠΑ και του Ηνωμένου Βασιλείου – υπέγραψαν τη δήλωση Bletchley για την τεχνητή νοημοσύνη , η οποία αναγνώρισε ότι «υπάρχει πιθανότητα σοβαρής, ακόμη και καταστροφικής, βλάβης, είτε εκούσια είτε ακούσια, που προέρχεται από σημαντικές δυνατότητες αυτών των μοντέλων τεχνητής νοημοσύνης». Χρησιμοποιώντας τέτοιους αποκαλυπτικούς όρους, οι ειδικοί και οι κυβερνήσεις δεν επιθυμούν να δημιουργήσουν μια εικόνα του Χόλιγουντ εξεγερμένων ρομπότ που τρέχουν στους δρόμους και πυροβολούν ανθρώπους. Ένα τέτοιο σενάριο είναι απίθανο, και απλώς αποσπά την προσοχή των ανθρώπων από τους πραγματικούς κινδύνους.
Η τεχνητή νοημοσύνη είναι μια άνευ προηγουμένου απειλή για την ανθρωπότητα, επειδή είναι η πρώτη τεχνολογία στην ιστορία που μπορεί να πάρει αποφάσεις και να δημιουργήσει νέες ιδέες από μόνη της. Όλες οι προηγούμενες ανθρώπινες εφευρέσεις ενδυνάμωσαν τους ανθρώπους, γιατί όσο ισχυρό κι αν ήταν το νέο εργαλείο, οι αποφάσεις για τη χρήση του παρέμεναν στα χέρια μας. Οι πυρηνικές βόμβες δεν αποφασίζουν οι ίδιες ποιον θα σκοτώσουν, ούτε μπορούν να βελτιωθούν ή να εφεύρουν ακόμη πιο ισχυρές βόμβες. Αντίθετα, τα αυτόνομα drones μπορούν να αποφασίσουν από μόνα τους ποιον θα σκοτώσουν και τα AI μπορούν να δημιουργήσουν νέα σχέδια βομβών, πρωτοφανείς στρατιωτικές στρατηγικές και καλύτερες AI. Το AI δεν είναι εργαλείο – είναι πράκτορας. Η μεγαλύτερη απειλή της τεχνητής νοημοσύνης είναι ότι καλούμε στη Γη αμέτρητους νέους ισχυρούς πράκτορες που είναι δυνητικά πιο έξυπνοι και ευφάνταστοι από εμάς και που δεν καταλαβαίνουμε ή ελέγχουμε πλήρως.
Τις επόμενες δεκαετίες, είναι πιθανό η τεχνητή νοημοσύνη να αποκτήσει την ικανότητα ακόμη και να δημιουργεί νέες μορφές ζωής
Παραδοσιακά, ο όρος «AI» χρησιμοποιείται ως ακρωνύμιο για την τεχνητή νοημοσύνη. Αλλά ίσως είναι καλύτερο να το σκεφτούμε ως ακρωνύμιο για την εξωγήινη νοημοσύνη. Καθώς η τεχνητή νοημοσύνη εξελίσσεται, γίνεται λιγότερο τεχνητή (με την έννοια ότι εξαρτάται από τα ανθρώπινα σχέδια) και πιο εξωγήινη. Πολλοί άνθρωποι προσπαθούν να μετρήσουν και ακόμη και να ορίσουν την τεχνητή νοημοσύνη χρησιμοποιώντας τη μέτρηση της «νοημοσύνης σε ανθρώπινο επίπεδο» και υπάρχει μια έντονη συζήτηση σχετικά με το πότε μπορούμε να περιμένουμε ότι η τεχνητή νοημοσύνη θα την φτάσει. Αυτή η μέτρηση είναι βαθιά παραπλανητική. Είναι σαν να ορίζουμε και να αξιολογούμε τα αεροπλάνα μέσω της μέτρησης της «πτήσης σε επίπεδο πτηνών». Η τεχνητή νοημοσύνη δεν προχωρά προς τη νοημοσύνη σε ανθρώπινο επίπεδο. Εξελίσσεται ένας εξωγήινος τύπος νοημοσύνης.
Ακόμη και αυτή τη στιγμή, στο εμβρυακό στάδιο της επανάστασης της τεχνητής νοημοσύνης, οι υπολογιστές παίρνουν ήδη αποφάσεις για εμάς – αν θα μας δώσουν υποθήκη, θα μας προσλάβουν για δουλειά, θα μας στείλουν φυλακή. Εν τω μεταξύ, οι γενεσιουργοί AI όπως το GPT-4 δημιουργούν ήδη νέα ποιήματα, ιστορίες και εικόνες. Αυτή η τάση θα αυξηθεί και θα επιταχυνθεί, καθιστώντας πιο δύσκολη την κατανόηση της δικής μας ζωής. Μπορούμε να εμπιστευτούμε τους αλγόριθμους υπολογιστών για τη λήψη σοφών αποφάσεων και τη δημιουργία ενός καλύτερου κόσμου; Αυτό είναι πολύ μεγαλύτερο στοίχημα από το να εμπιστευτείς μια μαγεμένη σκούπα για να φέρει νερό. Και είναι κάτι περισσότερο από ανθρώπινες ζωές πάνω στις οποίες στοιχηματίζουμε. Η τεχνητή νοημοσύνη είναι ήδη ικανή να παράγει τέχνη και να κάνει επιστημονικές ανακαλύψεις από μόνη της. Τις επόμενες δεκαετίες, θα είναι πιθανό να αποκτήσει την ικανότητα ακόμη και να δημιουργεί νέες μορφές ζωής, είτε γράφοντας γενετικό κώδικα είτε επινοώντας έναν ανόργανο κώδικα που θα εμψυχώνει ανόργανες οντότητες. Η τεχνητή νοημοσύνη θα μπορούσε επομένως να αλλάξει την πορεία όχι μόνο της ιστορίας του είδους μας αλλά και της εξέλιξης όλων των μορφών ζωής.
ΜΟ ustafa Suleyman είναι παγκόσμιος ειδικός στο θέμα της AI. Είναι ο συνιδρυτής της DeepMind, μιας από τις σημαντικότερες επιχειρήσεις τεχνητής νοημοσύνης στον κόσμο, η οποία είναι υπεύθυνη για την ανάπτυξη του προγράμματος AlphaGo, μεταξύ άλλων επιτευγμάτων. Το AlphaGo σχεδιάστηκε για να παίζει το Go, ένα επιτραπέζιο παιχνίδι στρατηγικής στο οποίο δύο παίκτες προσπαθούν να νικήσουν ο ένας τον άλλον περικυκλώνοντας και κατακτώντας εδάφη. Εφευρέθηκε στην αρχαία Κίνα, το παιχνίδι είναι πολύ πιο περίπλοκο από το σκάκι. Κατά συνέπεια, ακόμη και αφού οι υπολογιστές νίκησαν τους παγκόσμιους πρωταθλητές στο σκάκι, οι ειδικοί εξακολουθούσαν να πίστευαν ότι οι υπολογιστές δεν θα ήταν ποτέ καλύτεροι για την ανθρωπότητα στο Go.
Γι' αυτό και οι επαγγελματίες του Go και οι ειδικοί στους υπολογιστές έμειναν έκπληκτοι τον Μάρτιο του 2016 όταν η AlphaGo νίκησε τον Νοτιοκορεάτη πρωταθλητή Go Lee Sedol. Στο βιβλίο του το 2023 The Coming Wave , ο Suleyman περιγράφει μια από τις πιο σημαντικές στιγμές του αγώνα τους – μια στιγμή που επαναπροσδιόρισε την τεχνητή νοημοσύνη και αναγνωρίζεται σε πολλούς ακαδημαϊκούς και κυβερνητικούς κύκλους ως κρίσιμη καμπή στην ιστορία. Συνέβη στο δεύτερο παιχνίδι του αγώνα, στις 10 Μαρτίου 2016.
«Τότε… ήρθε η κίνηση νούμερο 37», γράφει ο Σουλεϊμάν. «Δεν είχε νόημα. Το AlphaGo προφανώς το είχε καταρρίψει, ακολουθώντας στα τυφλά μια φαινομενικά χαμένη στρατηγική που κανένας επαγγελματίας παίκτης δεν θα ακολουθούσε ποτέ. Οι σχολιαστές του ζωντανού αγώνα, και οι δύο επαγγελματίες της υψηλότερης κατάταξης, είπαν ότι ήταν μια «πολύ περίεργη κίνηση» και θεώρησαν ότι ήταν «λάθος». Ήταν τόσο ασυνήθιστο που ο Sedol χρειάστηκε 15 λεπτά για να απαντήσει και μάλιστα σηκώθηκε από το ταμπλό για να κάνει μια βόλτα. Καθώς παρακολουθούσαμε από την αίθουσα ελέγχου μας, η ένταση ήταν εξωπραγματική. Ωστόσο, καθώς πλησίαζε το τέλος του παιχνιδιού, αυτή η «λανθασμένη» κίνηση αποδείχθηκε καθοριστική. Το AlphaGo κέρδισε ξανά. Η στρατηγική Go ξαναγράφτηκε μπροστά στα μάτια μας. Η τεχνητή νοημοσύνη μας είχε αποκαλύψει ιδέες που δεν είχαν συμβεί στους πιο λαμπρούς παίκτες εδώ και χιλιάδες χρόνια».
Το Move 37 είναι ένα έμβλημα της επανάστασης της τεχνητής νοημοσύνης για δύο λόγους. Πρώτον, απέδειξε την εξωγήινη φύση του AI. Στην ανατολική Ασία, το Go θεωρείται πολύ περισσότερο από ένα παιχνίδι: είναι μια πολύτιμη πολιτιστική παράδοση. Για περισσότερα από 2.500 χρόνια, δεκάδες εκατομμύρια άνθρωποι έχουν παίξει το Go και ολόκληρες σχολές σκέψης έχουν αναπτυχθεί γύρω από το παιχνίδι, υιοθετώντας διαφορετικές στρατηγικές και φιλοσοφίες. Ωστόσο, κατά τη διάρκεια όλων αυτών των χιλιετιών, τα ανθρώπινα μυαλά έχουν εξερευνήσει μόνο ορισμένες περιοχές στο τοπίο του Go. Άλλες περιοχές έμειναν ανέγγιχτες, επειδή τα ανθρώπινα μυαλά απλώς δεν σκέφτηκαν να τολμήσουν εκεί. Το AI, όντας απαλλαγμένο από τους περιορισμούς του ανθρώπινου μυαλού, ανακάλυψε και εξερεύνησε αυτές τις προηγουμένως κρυμμένες περιοχές.
Δεύτερον, η κίνηση 37 απέδειξε την ανεξάντλητη τεχνητή νοημοσύνη. Ακόμη και αφού το AlphaGo το έπαιξε για να πετύχει τη νίκη, ο Suleyman και η ομάδα δεν μπορούσαν να εξηγήσουν πώς το AlphaGo αποφάσισε να το παίξει. Ακόμα κι αν ένα δικαστήριο είχε διατάξει την DeepMind να δώσει στον Sedol μια εξήγηση, κανείς δεν θα μπορούσε να εκπληρώσει αυτήν την εντολή. Ο Σουλεϊμάν γράφει: «Στην τεχνητή νοημοσύνη, τα νευρωνικά δίκτυα που κινούνται προς την αυτονομία, προς το παρόν, δεν μπορούν να εξηγηθούν. Δεν μπορείτε να καθοδηγήσετε κάποιον στη διαδικασία λήψης αποφάσεων για να εξηγήσετε ακριβώς γιατί ένας αλγόριθμος παρήγαγε μια συγκεκριμένη πρόβλεψη. Οι μηχανικοί δεν μπορούν να κοιτάξουν κάτω από το καπό και να εξηγήσουν εύκολα με λεπτομερείς λεπτομέρειες τι προκάλεσε κάτι να συμβεί. Το GPT‑4, το AlphaGo και τα υπόλοιπα είναι μαύρα κουτιά, οι έξοδοι και οι αποφάσεις τους βασίζονται σε αδιαφανείς και απίθανα περίπλοκες αλυσίδες λεπτών σημάτων».
Η άνοδος της ανεξιχνίαστης εξωγήινης νοημοσύνης αποτελεί απειλή για όλους τους ανθρώπους και αποτελεί ιδιαίτερη απειλή για τη δημοκρατία. Εάν όλο και περισσότερες αποφάσεις για τις ζωές των ανθρώπων λαμβάνονται σε ένα μαύρο κουτί, οπότε οι ψηφοφόροι δεν μπορούν να τις καταλάβουν και να τις αμφισβητήσουν, η δημοκρατία παύει να λειτουργεί. Ειδικότερα, τι συμβαίνει όταν κρίσιμες αποφάσεις όχι μόνο για ατομικές ζωές, αλλά ακόμη και για συλλογικά ζητήματα, όπως το επιτόκιο της Ομοσπονδιακής Τράπεζας, λαμβάνονται από ανεξιχνίαστους αλγόριθμους; Οι άνθρωποι ψηφοφόροι μπορεί να συνεχίσουν να επιλέγουν έναν άνθρωπο πρόεδρο, αλλά δεν θα ήταν απλώς μια άδεια τελετή; Ακόμη και σήμερα, μόνο ένα μικρό κλάσμα της ανθρωπότητας κατανοεί πραγματικά το χρηματοπιστωτικό σύστημα. Μια έρευνα του 2014 σε βρετανούς βουλευτές – που είναι επιφορτισμένοι με τη ρύθμιση ενός από τους πιο σημαντικούς χρηματοοικονομικούς κόμβους στον κόσμο – διαπίστωσε ότι μόνο το 12% κατανοούσε με ακρίβεια ότι νέο χρήμα δημιουργείται όταν οι τράπεζες χορηγούν δάνεια. Το γεγονός αυτό είναι από τις πιο βασικές αρχές του σύγχρονου χρηματοπιστωτικού συστήματος. Όπως έδειξε η οικονομική κρίση 2007-2008, ορισμένες πολύπλοκες χρηματοοικονομικές συσκευές και αρχές ήταν κατανοητές μόνο σε λίγους χρηματοοικονομικούς μάγους. Τι συμβαίνει στη δημοκρατία όταν τα AI δημιουργούν ακόμη πιο πολύπλοκες οικονομικές συσκευές και όταν ο αριθμός των ανθρώπων που κατανοούν το χρηματοπιστωτικό σύστημα πέσει στο μηδέν;
Μεταφράζοντας τον προειδοποιητικό μύθο του Γκαίτε στη γλώσσα των σύγχρονων οικονομικών, φανταστείτε το ακόλουθο σενάριο: ένας μαθητευόμενος στη Wall Street βαρεμένος από τις κοπιωδίες του χρηματοοικονομικού εργαστηρίου δημιουργεί μια τεχνητή νοημοσύνη που ονομάζεται Broomstick, του παρέχει ένα εκατομμύριο δολάρια σε χρήματα και του δίνει εντολή να κάνει περισσότερα χρήματα. Για την τεχνητή νοημοσύνη, τα οικονομικά είναι η ιδανική παιδική χαρά, γιατί είναι ένα καθαρά πληροφοριακό και μαθηματικό βασίλειο. Οι AI εξακολουθούν να δυσκολεύονται να οδηγήσουν αυτόνομα ένα αυτοκίνητο, επειδή αυτό απαιτεί κίνηση και αλληλεπίδραση στον ακατάστατο φυσικό κόσμο, όπου η «επιτυχία» είναι δύσκολο να οριστεί. Αντίθετα, για την πραγματοποίηση οικονομικών συναλλαγών η τεχνητή νοημοσύνη χρειάζεται να ασχολείται μόνο με δεδομένα και μπορεί εύκολα να μετρήσει την επιτυχία της μαθηματικά σε δολάρια, ευρώ ή λίρες. Περισσότερα δολάρια - η αποστολή ολοκληρώθηκε.
Οι υπολογιστές δεν είναι ακόμη αρκετά ισχυροί για να καταστρέψουν μόνοι τους τον ανθρώπινο πολιτισμό. Όσο η ανθρωπότητα είναι ενωμένη, μπορούμε να οικοδομήσουμε θεσμούς που θα ρυθμίζουν την τεχνητή νοημοσύνη
Επιδιώκοντας περισσότερα δολάρια, η Broomstick όχι μόνο επινοεί νέες επενδυτικές στρατηγικές, αλλά έρχεται με εντελώς νέες οικονομικές συσκευές που κανένας άνθρωπος δεν έχει σκεφτεί ποτέ. Για χιλιάδες χρόνια, τα ανθρώπινα μυαλά έχουν εξερευνήσει μόνο ορισμένους τομείς στο οικονομικό τοπίο. Επινόησαν χρήματα, επιταγές, ομόλογα, μετοχές, ETF, CDO και άλλα κομμάτια χρηματοοικονομικής μαγείας. Αλλά πολλοί οικονομικοί τομείς έμειναν ανέγγιχτοι, επειδή τα ανθρώπινα μυαλά απλώς δεν σκέφτηκαν να τολμήσουν εκεί. Το Broomstick, όντας απαλλαγμένο από τους περιορισμούς του ανθρώπινου μυαλού, ανακαλύπτει και εξερευνά αυτές τις προηγουμένως κρυφές περιοχές, κάνοντας οικονομικές κινήσεις που ισοδυναμούν με την κίνηση 37 της AlphaGo.
Για μερικά χρόνια, καθώς ο Broomstick οδηγεί την ανθρωπότητα σε παρθένο οικονομικό έδαφος, όλα φαίνονται υπέροχα. Οι αγορές εκτινάσσονται στα ύψη, τα χρήματα πλημμυρίζουν αβίαστα και όλοι είναι ευχαριστημένοι. Έπειτα έρχεται ένα κραχ μεγαλύτερο ακόμη και από το 1929 ή το 2008. Αλλά κανένας άνθρωπος –είτε πρόεδρος, τραπεζίτης είτε πολίτης– δεν γνωρίζει τι το προκάλεσε και τι θα μπορούσε να γίνει για αυτό. Δεδομένου ότι ούτε θεός ούτε μάγος έρχεται για να σώσει το χρηματοπιστωτικό σύστημα, οι απελπισμένες κυβερνήσεις ζητούν βοήθεια από τη μοναδική οντότητα που μπορεί να καταλάβει τι συμβαίνει – το Broomstick. Το AI κάνει πολλές συστάσεις πολιτικής, πολύ πιο τολμηρές από την ποσοτική χαλάρωση – και πολύ πιο αδιαφανείς, επίσης. Το Broomstick υπόσχεται ότι αυτές οι πολιτικές θα σώσουν τη μέρα, αλλά οι ανθρώπινοι πολιτικοί – ανίκανοι να κατανοήσουν τη λογική πίσω από τις συστάσεις του Broomstick – φοβούνται ότι μπορεί να ξεδιαλύνουν εντελώς τον οικονομικό και ακόμη και τον κοινωνικό ιστό του κόσμου. Πρέπει να ακούσουν την τεχνητή νοημοσύνη;
Οι υπολογιστές δεν είναι ακόμη αρκετά ισχυροί ώστε να ξεφύγουν εντελώς από τον έλεγχό μας ή να καταστρέψουν μόνοι τους τον ανθρώπινο πολιτισμό. Όσο η ανθρωπότητα είναι ενωμένη, μπορούμε να οικοδομήσουμε θεσμούς που θα ρυθμίζουν την τεχνητή νοημοσύνη, είτε στον τομέα των οικονομικών είτε στον πόλεμο. Δυστυχώς, η ανθρωπότητα δεν ήταν ποτέ ενωμένη. Πάντα μας βασάνιζαν κακοί ηθοποιοί, καθώς και διαφωνίες μεταξύ καλών ηθοποιών. Η άνοδος της τεχνητής νοημοσύνης αποτελεί υπαρξιακό κίνδυνο για την ανθρωπότητα, όχι λόγω της κακίας των υπολογιστών, αλλά λόγω των δικών μας ελλείψεων.
Έτσι, ένας παρανοϊκός δικτάτορας μπορεί να παραδώσει απεριόριστη ισχύ σε μια τεχνητή νοημοσύνη που δεν μπορεί να κάνει λάθος, συμπεριλαμβανομένης ακόμη και της δύναμης να εκτοξεύει πυρηνικά χτυπήματα. Εάν η τεχνητή νοημοσύνη στη συνέχεια κάνει ένα λάθος ή αρχίσει να επιδιώκει έναν απροσδόκητο στόχο, το αποτέλεσμα θα μπορούσε να είναι καταστροφικό, και όχι μόνο για αυτήν τη χώρα. Ομοίως, οι τρομοκράτες μπορεί να χρησιμοποιήσουν την τεχνητή νοημοσύνη για να υποκινήσουν μια παγκόσμια πανδημία. Οι ίδιοι οι τρομοκράτες μπορεί να έχουν ελάχιστες γνώσεις επιδημιολογίας, αλλά η τεχνητή νοημοσύνη θα μπορούσε να συνθέσει για αυτούς ένα νέο παθογόνο, να το παραγγείλει από εμπορικά εργαστήρια ή να το εκτυπώσει σε βιολογικούς τρισδιάστατους εκτυπωτές και να επινοήσει την καλύτερη στρατηγική για να το διαδώσει σε όλο τον κόσμο, μέσω αεροδρομίων ή τροφίμων. εφοδιαστικές αλυσίδες. Τι θα συμβεί αν η τεχνητή νοημοσύνη συνθέτει έναν ιό που είναι τόσο θανατηφόρος όσο ο Έμπολα, τόσο μεταδοτικός όσο ο Covid-19 και τόσο αργή δράση όσο ο HIV; Μέχρι να αρχίσουν να πεθαίνουν τα πρώτα θύματα και να ειδοποιηθεί ο κόσμος για τον κίνδυνο, οι περισσότεροι άνθρωποι στη Γη μπορεί να έχουν ήδη μολυνθεί.
Ο ανθρώπινος πολιτισμός θα μπορούσε επίσης να καταστραφεί από όπλα κοινωνικής μαζικής καταστροφής, όπως ιστορίες που υπονομεύουν τους κοινωνικούς μας δεσμούς. Μια τεχνητή νοημοσύνη που αναπτύχθηκε σε μια χώρα θα μπορούσε να χρησιμοποιηθεί για να εξαπολύσει έναν κατακλυσμό από ψεύτικες ειδήσεις, ψεύτικα χρήματα και ψεύτικους ανθρώπους, έτσι ώστε οι άνθρωποι σε πολλές άλλες χώρες να χάσουν την ικανότητα να εμπιστεύονται οτιδήποτε ή οποιονδήποτε.
Πολλές κοινωνίες –τόσο οι δημοκρατίες όσο και οι δικτατορίες– μπορεί να ενεργούν υπεύθυνα για να ρυθμίσουν τέτοιες χρήσεις της τεχνητής νοημοσύνης, να καταπολεμήσουν τους κακούς παράγοντες και να περιορίσουν τις επικίνδυνες φιλοδοξίες των δικών τους κυβερνώντων και φανατικών. Αλλά αν ακόμη και λίγες κοινωνίες αποτύχουν να το κάνουν, αυτό θα μπορούσε να είναι αρκετό για να θέσει σε κίνδυνο ολόκληρη την ανθρωπότητα. Η κλιματική αλλαγή μπορεί να καταστρέψει ακόμη και χώρες που υιοθετούν εξαιρετικούς περιβαλλοντικούς κανονισμούς, επειδή είναι ένα παγκόσμιο και όχι εθνικό πρόβλημα. Η τεχνητή νοημοσύνη, επίσης, είναι ένα παγκόσμιο πρόβλημα. Συνεπώς, για να κατανοήσουμε τη νέα πολιτική των υπολογιστών, δεν αρκεί να εξετάσουμε πώς οι διακριτές κοινωνίες ενδέχεται να αντιδράσουν στην τεχνητή νοημοσύνη. Πρέπει επίσης να εξετάσουμε πώς η τεχνητή νοημοσύνη μπορεί να αλλάξει τις σχέσεις μεταξύ των κοινωνιών σε παγκόσμιο επίπεδο.
Τον 16ο αιώνα, όταν Ισπανοί, Πορτογάλοι και Ολλανδοί κατακτητές έχτιζαν τις πρώτες παγκόσμιες αυτοκρατορίες στην ιστορία, ήρθαν με ιστιοφόρα, άλογα και μπαρούτι. Όταν οι Βρετανοί, οι Ρώσοι και οι Ιάπωνες έκαναν τις προσφορές τους για ηγεμονία τον 19ο και τον 20ο αιώνα, βασίστηκαν σε ατμόπλοια, ατμομηχανές και πολυβόλα. Στον 21ο αιώνα, για να κυριαρχήσεις σε μια αποικία, δεν χρειάζεται πλέον να στέλνεις κανονιοφόρους. Πρέπει να βγάλετε τα δεδομένα. Λίγες εταιρείες ή κυβερνήσεις που συγκεντρώνουν τα δεδομένα του κόσμου θα μπορούσαν να μετατρέψουν τον υπόλοιπο κόσμο σε αποικίες δεδομένων – εδάφη που ελέγχουν όχι με απροκάλυπτη στρατιωτική δύναμη αλλά με πληροφορίες.
Φανταστείτε μια κατάσταση – σε 20 χρόνια, ας πούμε – όταν κάποιος στο Πεκίνο ή στο Σαν Φρανσίσκο κατέχει ολόκληρη την προσωπική ιστορία κάθε πολιτικού, δημοσιογράφου, συνταγματάρχη και διευθύνοντος συμβούλου στη χώρα σας: κάθε κείμενο που έστειλε ποτέ, κάθε αναζήτηση στο διαδίκτυο που έκανε ποτέ, κάθε ασθένεια υπέφεραν, κάθε σεξουαλική επαφή που τους άρεσε, κάθε αστείο που είπαν, κάθε δωροδοκία που έπαιρναν. Θα ζούσατε ακόμα σε μια ανεξάρτητη χώρα ή θα ζούσατε τώρα σε μια αποικία δεδομένων; Τι συμβαίνει όταν η χώρα σας βρίσκεται απόλυτα εξαρτημένη από ψηφιακές υποδομές και συστήματα που λειτουργούν με τεχνητή νοημοσύνη, στα οποία δεν έχει αποτελεσματικό έλεγχο;
Σε μια παγκόσμια οικονομία που βασίζεται στην τεχνητή νοημοσύνη, οι ψηφιακοί ηγέτες διεκδικούν το μεγαλύτερο μέρος των κερδών. Εν τω μεταξύ, η αξία των ανειδίκευτων εργατών στις χώρες που μένουν πίσω θα μειωθεί
Στον οικονομικό τομέα, οι προηγούμενες αυτοκρατορίες βασίζονταν σε υλικούς πόρους όπως η γη, το βαμβάκι και το πετρέλαιο. Αυτό έθεσε ένα όριο στην ικανότητα της αυτοκρατορίας να συγκεντρώνει τόσο τον οικονομικό πλούτο όσο και την πολιτική εξουσία σε ένα μέρος. Η φυσική και η γεωλογία δεν επιτρέπουν να μεταφερθεί όλη η γη, το βαμβάκι ή το πετρέλαιο σε μια χώρα. Είναι διαφορετικό με τις νέες αυτοκρατορίες πληροφοριών. Τα δεδομένα μπορούν να κινούνται με την ταχύτητα του φωτός και οι αλγόριθμοι δεν καταλαμβάνουν πολύ χώρο. Κατά συνέπεια, η αλγοριθμική ισχύς του κόσμου μπορεί να συγκεντρωθεί σε έναν μόνο κόμβο. Οι μηχανικοί σε μία μόνο χώρα θα μπορούσαν να γράψουν τον κώδικα και να ελέγξουν τα κλειδιά για όλους τους κρίσιμους αλγόριθμους που τρέχουν σε ολόκληρο τον κόσμο.
Ως εκ τούτου, η τεχνητή νοημοσύνη και η αυτοματοποίηση αποτελούν ιδιαίτερη πρόκληση για τις φτωχότερες αναπτυσσόμενες χώρες. Σε μια παγκόσμια οικονομία που καθοδηγείται από την τεχνητή νοημοσύνη, οι ψηφιακοί ηγέτες διεκδικούν το μεγαλύτερο μέρος των κερδών και θα μπορούσαν να χρησιμοποιήσουν τον πλούτο τους για να επανεκπαιδεύσουν το εργατικό δυναμικό τους και να αποκομίσουν ακόμη περισσότερα κέρδη. Εν τω μεταξύ, η αξία των ανειδίκευτων εργατών στις χώρες που μένουν πίσω θα μειωθεί, με αποτέλεσμα να μείνουν ακόμη πιο πίσω. Το αποτέλεσμα μπορεί να είναι πολλές νέες θέσεις εργασίας και τεράστιος πλούτος στο Σαν Φρανσίσκο και τη Σαγκάη, ενώ πολλά άλλα μέρη του κόσμου αντιμετωπίζουν οικονομική καταστροφή. Σύμφωνα με την παγκόσμια λογιστική εταιρεία PricewaterhouseCoopers , η τεχνητή νοημοσύνη αναμένεται να προσθέσει $15,7 tn (£12,3tn) στην παγκόσμια οικονομία έως το 2030. Αλλά εάν συνεχιστούν οι τρέχουσες τάσεις, προβλέπεται ότι η Κίνα και η Βόρεια Αμερική – οι δύο κορυφαίες υπερδυνάμεις της τεχνητής νοημοσύνης – θα ενωθούν πάρτε σπίτι το 70% αυτών των χρημάτων.
Κατά τη διάρκεια του ψυχρού πολέμου, το σιδερένιο παραπέτασμα ήταν σε πολλά σημεία κυριολεκτικά κατασκευασμένο από μέταλλο: συρματοπλέγματα χώριζαν τη μια χώρα από την άλλη. Τώρα ο κόσμος διχάζεται όλο και περισσότερο από την κουρτίνα του πυριτίου. Ο κωδικός στο smartphone σας καθορίζει σε ποια πλευρά της κουρτίνας πυριτίου ζείτε, ποιοι αλγόριθμοι τρέχουν τη ζωή σας, ποιος ελέγχει την προσοχή σας και πού ρέουν τα δεδομένα σας.
Καθίσταται δύσκολη η πρόσβαση σε πληροφορίες πέρα από το πυριτικό παραπέτασμα, ας πούμε μεταξύ Κίνας και ΗΠΑ ή μεταξύ Ρωσίας και ΕΕ. Επιπλέον, οι δύο πλευρές τρέχουν όλο και περισσότερο σε διαφορετικά ψηφιακά δίκτυα, χρησιμοποιώντας διαφορετικούς κωδικούς υπολογιστών. Στην Κίνα, δεν μπορείτε να χρησιμοποιήσετε το Google ή το Facebook και δεν έχετε πρόσβαση στη Wikipedia. Στις ΗΠΑ, λίγοι άνθρωποι χρησιμοποιούν κορυφαίες κινεζικές εφαρμογές όπως το WeChat. Το πιο σημαντικό, οι δύο ψηφιακές σφαίρες δεν είναι κατοπτρικές εικόνες η μία της άλλης. Η Baidu δεν είναι η κινεζική Google. Η Alibaba δεν είναι η κινεζική Αμαζόνα. Έχουν διαφορετικούς στόχους, διαφορετικές ψηφιακές αρχιτεκτονικές και διαφορετικές επιπτώσεις στη ζωή των ανθρώπων. Αυτές οι διαφορές επηρεάζουν μεγάλο μέρος του κόσμου, καθώς οι περισσότερες χώρες βασίζονται σε κινεζικό και αμερικανικό λογισμικό παρά στην τοπική τεχνολογία.
Οι ΗΠΑ πιέζουν επίσης τους συμμάχους και τους πελάτες τους να αποφύγουν το κινεζικό υλικό, όπως η υποδομή 5G της Huawei. Η κυβέρνηση Τραμπ μπλόκαρε μια προσπάθεια της εταιρείας Broadcom της Σιγκαπούρης να αγοράσει τον κορυφαίο αμερικανικό παραγωγό τσιπ υπολογιστών, την Qualcomm. Φοβόντουσαν ότι οι ξένοι θα έβαζαν πίσω πόρτες στα τσιπ ή θα εμπόδιζαν την κυβέρνηση των ΗΠΑ να εισαγάγει τις δικές της πίσω πόρτες εκεί. Τόσο η κυβέρνηση Τραμπ όσο και ο Μπάιντεν έχουν θέσει αυστηρούς περιορισμούς στο εμπόριο υπολογιστικών τσιπ υψηλής απόδοσης που είναι απαραίτητα για την ανάπτυξη της τεχνητής νοημοσύνης. Οι αμερικανικές εταιρείες απαγορεύεται πλέον να εξάγουν τέτοια τσιπ στην Κίνα. Ενώ βραχυπρόθεσμα αυτό εμποδίζει την Κίνα στον αγώνα τεχνητής νοημοσύνης, μακροπρόθεσμα ωθεί την Κίνα να αναπτύξει μια εντελώς ξεχωριστή ψηφιακή σφαίρα που θα διαφέρει από την αμερικανική ψηφιακή σφαίρα ακόμη και στα μικρότερα κτίριά της.
Οι δύο ψηφιακές σφαίρες μπορεί επομένως να απομακρύνονται όλο και περισσότερο. Για αιώνες, οι νέες τεχνολογίες πληροφοριών τροφοδότησαν τη διαδικασία της παγκοσμιοποίησης και έφεραν τους ανθρώπους σε όλο τον κόσμο σε στενότερη επαφή. Παραδόξως, η τεχνολογία της πληροφορίας σήμερα είναι τόσο ισχυρή που μπορεί ενδεχομένως να χωρίσει την ανθρωπότητα περικλείοντας διαφορετικούς ανθρώπους σε ξεχωριστά κουκούλια πληροφοριών, τερματίζοντας την ιδέα μιας ενιαίας κοινής ανθρώπινης πραγματικότητας. Για δεκαετίες, η κύρια μεταφορά του κόσμου ήταν ο ιστός. Η κύρια μεταφορά των επόμενων δεκαετιών μπορεί να είναι το κουκούλι.
Ενώ η Κίνα και οι ΗΠΑ είναι επί του παρόντος οι πρωτοπόροι στον αγώνα τεχνητής νοημοσύνης, δεν είναι οι μόνες. Άλλες χώρες ή μπλοκ, όπως η ΕΕ, η Ινδία, η Βραζιλία και η Ρωσία, μπορεί να προσπαθήσουν να δημιουργήσουν τα δικά τους ψηφιακά κουκούλια, καθεμία επηρεασμένη από διαφορετικές πολιτικές, πολιτιστικές και θρησκευτικές παραδόσεις. Αντί να χωρίζεται μεταξύ δύο παγκόσμιων αυτοκρατοριών, ο κόσμος μπορεί να χωριστεί σε δώδεκα αυτοκρατορίες.
Όσο περισσότερο οι νέες αυτοκρατορίες ανταγωνίζονται η μία την άλλη, τόσο μεγαλύτερος είναι ο κίνδυνος ένοπλης σύγκρουσης. Ο ψυχρός πόλεμος μεταξύ των ΗΠΑ και της ΕΣΣΔ δεν κλιμακώθηκε ποτέ σε άμεση στρατιωτική σύγκρουση, κυρίως χάρη στο δόγμα της αμοιβαία εξασφαλισμένης καταστροφής. Αλλά ο κίνδυνος κλιμάκωσης στην εποχή της τεχνητής νοημοσύνης είναι μεγαλύτερος, επειδή ο κυβερνοπόλεμος είναι εγγενώς διαφορετικός από τον πυρηνικό πόλεμο.
Τα κυβερνοόπλα μπορούν να καταστρέψουν το ηλεκτρικό δίκτυο μιας χώρας, αλλά μπορούν επίσης να χρησιμοποιηθούν για να καταστρέψουν μια μυστική ερευνητική εγκατάσταση, να μπλοκάρουν έναν αισθητήρα εχθρού, να προκαλέσουν ένα πολιτικό σκάνδαλο, να χειραγωγήσουν εκλογές ή να χακάρουν ένα μόνο smartphone. Και μπορούν να τα κάνουν όλα αυτά κρυφά. Δεν ανακοινώνουν την παρουσία τους με ένα σύννεφο μανιταριών και μια καταιγίδα φωτιάς, ούτε αφήνουν ορατό ίχνος από το σημείο εκτόξευσης στο στόχο. Κατά συνέπεια, κατά καιρούς είναι δύσκολο να γνωρίζουμε αν έγινε μια επίθεση ή ποιος την εξαπέλυσε. Ο πειρασμός να ξεκινήσει ένας περιορισμένος κυβερνοπόλεμος είναι επομένως μεγάλος, όπως και ο πειρασμός να τον κλιμακώσουμε.
Μια δεύτερη κρίσιμη διαφορά αφορά την προβλεψιμότητα. Ο ψυχρός πόλεμος έμοιαζε με υπερορθολογικό παιχνίδι σκακιού και η βεβαιότητα της καταστροφής σε περίπτωση πυρηνικής σύγκρουσης ήταν τόσο μεγάλη που η επιθυμία για έναρξη ενός πολέμου ήταν αντίστοιχα μικρή. Ο κυβερνοπόλεμος στερείται αυτής της βεβαιότητας. Κανείς δεν ξέρει με βεβαιότητα πού έχει τοποθετήσει κάθε πλευρά τις λογικές βόμβες, τους δούρειους ίππους και το κακόβουλο λογισμικό. Κανείς δεν μπορεί να είναι σίγουρος εάν τα δικά του όπλα θα λειτουργούσαν πράγματι όταν τα χρησιμοποιούσαν. Θα εκτοξεύονταν οι κινεζικοί πύραυλοι όταν δόθηκε η εντολή, ή μήπως οι Αμερικανοί θα είχαν χακάρει αυτούς ή την αλυσίδα διοίκησης; Θα λειτουργούσαν τα αμερικανικά αεροπλανοφόρα όπως αναμενόταν ή θα έκλειναν μυστηριωδώς ή θα έπλεαν σε κύκλους;
Μια τέτοια αβεβαιότητα υπονομεύει το δόγμα της αμοιβαία εξασφαλισμένης καταστροφής. Η μία πλευρά μπορεί να πείσει τον εαυτό της - σωστά ή λάθος - ότι μπορεί να εξαπολύσει ένα επιτυχημένο πρώτο χτύπημα και να αποφύγει μαζικά αντίποινα. Ακόμη χειρότερα, εάν μια πλευρά πιστεύει ότι έχει μια τέτοια ευκαιρία, ο πειρασμός να εξαπολύσει ένα πρώτο χτύπημα θα μπορούσε να γίνει ακαταμάχητος, γιατί ποτέ δεν ξέρει κανείς πόσο καιρό θα παραμείνει ανοιχτό το παράθυρο ευκαιρίας. Η θεωρία παιγνίων υποστηρίζει ότι η πιο επικίνδυνη κατάσταση σε έναν αγώνα εξοπλισμών είναι όταν η μία πλευρά αισθάνεται ότι έχει ένα πλεονέκτημα αλλά ότι αυτό το πλεονέκτημα ξεφεύγει.
Ακόμα κι αν η ανθρωπότητα αποφύγει το χειρότερο σενάριο του παγκόσμιου πολέμου, η άνοδος νέων ψηφιακών αυτοκρατοριών θα μπορούσε να θέσει σε κίνδυνο την ελευθερία και την ευημερία δισεκατομμυρίων ανθρώπων. Οι βιομηχανικές αυτοκρατορίες του 19ου και του 20ου αιώνα εκμεταλλεύτηκαν και κατέστειλαν τις αποικίες τους και θα ήταν παράλογο να περιμένουμε από τις νέες ψηφιακές αυτοκρατορίες να συμπεριφέρονται πολύ καλύτερα. Επιπλέον, αν ο κόσμος χωριστεί σε αντίπαλες αυτοκρατορίες, η ανθρωπότητα είναι απίθανο να συνεργαστεί για να ξεπεράσει την οικολογική κρίση ή να ρυθμίσει την τεχνητή νοημοσύνη και άλλες τεχνολογίες που προκαλούν αναστάτωση, όπως η βιομηχανική.
Η διαίρεση του κόσμου σε αντίπαλες ψηφιακές αυτοκρατορίες συνδυάζεται με το πολιτικό όραμα πολλών ηγετών που πιστεύουν ότι ο κόσμος είναι μια ζούγκλα, ότι η σχετική ειρήνη των τελευταίων δεκαετιών ήταν μια ψευδαίσθηση και ότι η μόνη πραγματική επιλογή είναι αν θα παίξουν τον ρόλο του αρπακτικού ή του θηράματος.
Με μια τέτοια επιλογή, οι περισσότεροι ηγέτες θα προτιμούσαν να μείνουν στην ιστορία ως αρπακτικά και να προσθέσουν τα ονόματά τους στη ζοφερή λίστα των κατακτητών που οι άτυχοι μαθητές είναι καταδικασμένοι να απομνημονεύσουν για τις εξετάσεις ιστορίας τους. Ωστόσο, σε αυτούς τους ηγέτες πρέπει να υπενθυμιστεί ότι υπάρχει ένας νέος άλφα αρπακτικός στη ζούγκλα. Εάν η ανθρωπότητα δεν βρει τρόπο να συνεργαστεί και να προστατεύσει τα κοινά μας συμφέροντα, θα είμαστε όλοι εύκολη λεία της τεχνητής νοημοσύνης.
Αυτό είναι ένα επεξεργασμένο απόσπασμα από το Nexus: A Brief History of Information Networks from the Stone Age to AI από τον Yuval Noah Harari, που δημοσιεύτηκε από τη Fern Press στις 10 Σεπτεμβρίου με £28. Για την υποστήριξη του Guardian και του Observer, παραγγείλετε το αντίγραφό σας από το guardianbookshop.com . Ενδέχεται να ισχύουν χρεώσεις παράδοσης.
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου