Όταν η τεχνητή νοημοσύνη μετατρέπεται σε κεντρικό τραπεζίτη
Πηγή Φωτογραφίας: Pixabay
Οι κεντρικές τράπεζες αναπτύσσουν ταχύτατα την τεχνητή νοημοσύνη (“AI”), με γνώμονα την προοπτική της αυξημένης αποτελεσματικότητας και της μείωσης του κόστους. Οι μηχανές της τεχνητής νοημοσύνης λειτουργούν ήδη ως κεντρικοί τραπεζίτες.
Αλλά με τις περισσότερες εφαρμογές AI σήμερα να είναι χαμηλού επιπέδου και με τη συντηρητική φύση των κεντρικών τραπεζών, η υιοθέτηση της τεχνητής νοημοσύνης είναι πιο αργή από ό,τι στα χρηματοπιστωτικά ιδρύματα του ιδιωτικού τομέα. Παρόλα αυτά, η πορεία φαίνεται να είναι αναπόφευκτη, με την AI να αναλαμβάνει ολοένα και σημαντικότερο ρόλο στο κεντρικό τραπεζικό σύστημα. Αυτό εγείρει ερωτήματα σχετικά με το τι μπορούμε να αναθέσουμε στην AI και σε ποιους τομείς οι άνθρωποι πρέπει να είναι υπεύθυνοι.
Θα μπορούσαμε να σκεφτούμε ότι η οικονομία και ιδίως το χρηματοπιστωτικό σύστημα – ο τομέας των κεντρικών τραπεζών – είναι η ιδανική εφαρμογή για την τεχνητή νοημοσύνη. Εξάλλου, η οικονομία και το χρηματοπιστωτικό σύστημα παράγουν σχεδόν άπειρες ποσότητες δεδομένων, άρα άφθονα για να εκπαιδευτεί η τεχνητή νοημοσύνη. Κάθε λεπτό της απόφασης των χρηματοπιστωτικών θεσμικών οργάνων καταγράφεται και οι συναλλαγές σφραγίζονται με ακρίβεια μικροδευτερολέπτου.
Τα emails, τα μηνύματα και οι τηλεφωνικές κλήσεις των traders αλλά και οι συναλλαγές των στελεχών λήψης σημαντικών αποφάσεων με τους πελάτες καταγράφονται και οι κεντρικές τράπεζες έχουν πρόσβαση σε πολύ λεπτομερή οικονομικά δεδομένα. Όμως τα δεδομένα δεν ισοδυναμούν με πληροφορίες, και το να βγάζεις νόημα από όλες αυτές τις ροές δεδομένων είναι σαν να πίνεις από μια μάνικα πυροσβεστικής. Ακόμη χειρότερα, οι πληροφορίες για το επόμενο κρίσιμο γεγονός ή πληθωριστικό επεισόδιο μπορεί να μην είναι καν στα παρατηρούμενα δεδομένα.
Τι μπορεί και τι δεν μπορεί να κάνει η τεχνητή νοημοσύνη
Με τον κίνδυνο της υπεραπλούστευσης, είναι χρήσιμο να σκεφτούμε τα οφέλη και τις απειλές της AI σε ένα συνεχόμενο φάσμα.
Από τη μία πλευρά, έχουμε ένα πρόβλημα με συγκεκριμένους και καθορισμένους στόχους, περιορισμένους και αμετάβλητους κανόνες και έναν πεπερασμένο και γνωστό χώρο δράσης, όπως το σκάκι. Εδώ, η τεχνητή νοημοσύνη υπερέχει, λαμβάνοντας πολύ καλύτερες αποφάσεις από τους ανθρώπους. Μπορεί να μην χρειάζεται καν δεδομένα, επειδή μπορεί να δημιουργήσει τα δικά της σύνολα δεδομένων εκμάθησης.
Για τις κεντρικές τράπεζες, αυτό περιλαμβάνει συνήθεις καθημερινές λειτουργίες, εποπτεία και λήψη αποφάσεων, όπως η επιβολή μικροπροληπτικών κανόνων, η διαχείριση των συστημάτων πληρωμών και η παρακολούθηση της οικονομικής δραστηριότητας. Η πληθώρα δεδομένων, οι σαφείς κανόνες και στόχοι και τα επαναλαμβανόμενα γεγονότα καθιστούν το πεδίο ιδανικό για την AI. Αυτό το βλέπουμε ήδη στον ιδιωτικό τομέα, με το Aladdin της Blackrock που λειτουργεί με τεχνητή νοημοσύνη και χρησιμεύει ως η κορυφαία μηχανή διαχείρισης κινδύνων στον κόσμο.
Οι ρομποτικές εποπτικές αρχές που είναι υπεύθυνες για το “RegTech” αποτελούν ιδανική εφαρμογή AI. Προς το παρόν, η εν λόγω εργασία μπορεί να εκτελείται από επαγγελματίες με πτυχίο ή μεταπτυχιακό, και οι κεντρικές τράπεζες απασχολούν μεγάλο αριθμό εξ αυτών. Οι κεντρικές τράπεζες μπορεί να αντιληφθούν κατ’ αρχάς την αξία της συνεργασίας της τεχνητής νοημοσύνης με το ανθρώπινο προσωπικό για την αντιμετώπιση ορισμένων εκ των πολλών εργασιών που απαιτούν ιδιαίτερη προσοχή, χωρίς όμως να αλλάξει το επίπεδο του προσωπικού. Ωστόσο, με την πάροδο του χρόνου, οι κεντρικές τράπεζες ενδέχεται να υιοθετήσουν τις καλύτερες δυνατές λύσεις και την εξοικονόμηση κόστους που προκύπτουν από την αντικατάσταση των υπαλλήλων με AI. Αυτό είναι κυρίως εφικτό με τη σημερινή τεχνολογία AI (Noy and Zhang 2023, Ilzetzki and Jain 2023.)
Καθώς οι κανόνες είναι συγκεχυμένοι, οι στόχοι γίνονται ασαφείς, οι εξελίξεις σπανίζουν και το πεδίο δράσης είναι θολό, η Τεχνητή Νοημοσύνη αρχίζει να χάνει το πλεονέκτημά της. Έχει περιορισμένες πληροφορίες για να εκπαιδευτεί και οι σημαντικές αποφάσεις μπορεί να βασίζονται σε τομείς εκτός του συνόλου δεδομένων εκπαίδευσης της AI.
Αυτό αφορά την ανάλυση οικονομικής δραστηριότητας υψηλότερου επιπέδου, η οποία μπορεί να περιλαμβάνει οικονομολόγους διδακτορικού επιπέδου που συντάσσουν εκθέσεις και προβλέπουν τον κίνδυνο, τον πληθωρισμό και άλλες οικονομικές μεταβλητές – θέσεις εργασίας που απαιτούν ολοκληρωμένη κατανόηση δεδομένων, στατιστικής, προγραμματισμού και, κυρίως, των οικονομικών. Οι εν λόγω υπάλληλοι θα μπορούσαν να διατυπώνουν εισηγήσεις σχετικά με τις τυπικές αποφάσεις νομισματικής πολιτικής βάσει κάποιου κανόνα τύπου Taylor, τον μακροπροληπτικό συντονισμό της σύνθεσης και του ύψους των αποθεμάτων ρευστότητας και των κεφαλαιακών αποθεμάτων ή την ανάλυση των αναταράξεων στην αγορά.
Ενώ το επίπεδο των δεξιοτήτων για τέτοιου είδους εργασίες είναι υψηλότερο από ό,τι για τις συνήθεις δραστηριότητες, η μακρά ιστορία επαναλαμβανόμενων ερευνών, σε συνδυασμό με τα τυποποιημένα πλαίσια ανάλυσης, αφήνει σημαντική έκταση για την εκπαίδευση της τεχνητής νοημοσύνης. Και το κρίσιμο είναι ότι η εργασία αυτή δεν περιλαμβάνει μεγάλη αφηρημένη ανάλυση. Η τεχνητή νοημοσύνη μπορεί στο μέλλον να ξεπεράσει το ανθρώπινο προσωπικό σε τέτοιες δραστηριότητες και οι υπεύθυνοι λήψης αποφάσεων μπορεί να εκτιμήσουν τις ταχύτερες και ακριβέστερες αναφορές της τεχνητής νοημοσύνης. Αυτό συμβαίνει ήδη σε ραγδαίους ρυθμούς, όπως για παράδειγμα, με το ChatGPT και τις προβλέψεις μέσω τεχνητής νοημοσύνης.
Σε ακραίες περιπτώσεις, όπως η απόφαση για τον τρόπο αντίδρασης σε χρηματοπιστωτικές κρίσεις ή σε ραγδαία αύξηση του πληθωρισμού – γεγονότα που ο τυπικός κεντρικός τραπεζίτης μπορεί να αντιμετωπίσει μόνο μία φορά κατά τη διάρκεια της επαγγελματικής του ζωής – οι ανθρώπινοι φορείς λήψης αποφάσεων έχουν το πλεονέκτημα, δεδομένου ότι μπορεί να πρέπει να θέσουν τους δικούς τους στόχους, ενώ τα γεγονότα είναι ουσιαστικά μοναδικά, οι πληροφορίες εξαιρετικά σπάνιες, οι συμβουλές των εμπειρογνωμόνων αντιφατικές και ο χώρος δράσης άγνωστος. Αυτός είναι ο μοναδικός τομέας όπου η τεχνητή νοημοσύνη μειονεκτεί και μπορεί να ξεπεράσει την ανθρώπινη αφηρημένη ανάλυση (Danielsson et al. 2022).
Σε τέτοιες καταστάσεις, τα λάθη μπορεί να είναι καταστροφικά. Στη δεκαετία του 1980, η τεχνητή νοημοσύνη EURISKO χρησιμοποίησε ένα έξυπνο τέχνασμα για να νικήσει όλους τους ανθρώπινους αντιπάλους της σε ένα πολεμικό ναυτικό παιχνίδι, καθώς βύθισε τα πιο βραδυκίνητα πλοία της για να επιτύχει καλύτερη ευελιξία από τους ανθρώπινους ανταγωνιστές της. Και αυτό είναι το πρόβλημα με την τεχνητή νοημοσύνη. Πώς ξέρουμε ότι θα κάνει το σωστό; Οι άνθρωποι, εν προκειμένω οι ναύαρχοι δεν χρειάζεται να τους πούμε ότι δεν μπορούν να βυθίσουν τα πλοία τους, γιατί απλά το γνωρίζουν. Η μηχανή τεχνητής νοημοσύνης πρέπει να το μάθει. Αλλά ο κόσμος είναι πολύπλοκος και η δημιουργία κανόνων που να καλύπτουν κάθε ενδεχόμενο είναι αδύνατη. Η τεχνητή νοημοσύνη θα βρεθεί αντιμέτωπη με περιπτώσεις όπου θα λάβει κρίσιμες αποφάσεις που κανένας άνθρωπος δεν θα θεωρούσε αποδεκτές.
Φυσικά, οι άνθρωποι που λαμβάνουν αποφάσεις κάνουν λάθη πιο συχνά από την τεχνητή νοημοσύνη. Αλλά, υπάρχουν κρίσιμες διαφορές. Άλλωστε, τα άτομα αυτά διαθέτουν εμπειρία και γνώσεις μιας ολόκληρης ζωής σε συναφείς τομείς, όπως η φιλοσοφία, η ιστορία, η πολιτική και η ηθική, γεγονός που τους επιτρέπει να αντιδρούν σε απρόβλεπτες καταστάσεις και να λαμβάνουν αποφάσεις που υπόκεινται σε πολιτικά και ηθικά πρότυπα, χωρίς να είναι απαραίτητο να τις διευκρινίσουν. Ενώ η τεχνητή νοημοσύνη μπορεί να λαμβάνει καλύτερες αποφάσεις από έναν άνθρωπο τις περισσότερες φορές, ωστόσο για την ώρα διαθέτει μόνο μία εικόνα του κόσμου, ενώ κάθε άνθρωπος έχει τη δική του ατομική κοσμοθεωρία που βασίζεται σε προηγούμενες εμπειρίες. Οι ομαδικές αποφάσεις που λαμβάνονται από φορείς λήψης αποφάσεων με διαφορετικές απόψεις μπορούν να οδηγήσουν σε πιο ισχυρές αποφάσεις από ό,τι μια μεμονωμένη τεχνητή νοημοσύνη. Καμία τρέχουσα, ή οραματιζόμενη, τεχνολογία AI δεν μπορεί να λάβει τέτοιες ομαδικές συναινετικές αποφάσεις (Danielsson et al. 2020).
Επιπλέον, πριν θέσουμε τους ανθρώπους επικεφαλής των πιο νευραλγικών τομέων, μπορούμε να τους ρωτήσουμε πώς θα έπαιρναν αποφάσεις σε υποθετικά σενάρια και, κυρίως, να τους ζητήσουμε να τις αιτιολογήσουν. Μπορούν να λογοδοτήσουν και να κληθούν να καταθέσουν σε επιτροπές της Γερουσίας. Αν τα κάνουν θάλασσα, μπορούν να απολυθούν, να τιμωρηθούν, να φυλακιστούν και να απολέσουν το κύρος τους. Δεν μπορείτε να κάνετε τίποτα από αυτά με την τεχνητή νοημοσύνη. Κανείς δεν ξέρει πώς αιτιολογεί ή αποφασίζει, ούτε μπορεί να εξηγήσει μόνη της τη λειτουργία της. Μπορείτε να ζητήσετε από τη μηχανή τεχνητής νοημοσύνης να λογοδοτήσει, αλλά εκείνη δεν πρόκειται να ενδιαφερθεί.
Συμπέρασμα
Η χρήση της τεχνητής νοημοσύνης αυξάνεται τόσο γρήγορα ώστε οι υπεύθυνοι λήψης αποφάσεων κινδυνεύουν να πιαστούν απροετοίμαστοι και να βρεθούν αντιμέτωποι με τετελεσμένα γεγονότα. Η ChatGPT και η αυτόματη μάθηση που εποπτεύονται από την AI χρησιμοποιούνται ήδη από νέους κεντρικούς τραπεζίτες για την εργασιακή ασφάλειά τους.
Οι κεντρικές τράπεζες κινδυνεύουν να αναγκαστούν να προσαρμοστούν στην ήδη χρησιμοποιούμενη τεχνητή νοημοσύνη, αντί να κατευθύνουν την υιοθέτηση της τεχνητής νοημοσύνης προτού αυτή διαδοθεί σε μεγάλο βαθμό. Ενώ κάποιος μπορεί να δηλώσει ότι η τεχνητή νοημοσύνη δεν θα χρησιμοποιηθεί ποτέ για ορισμένες εργασίες, η ιστορία δείχνει ότι η χρήση μιας τέτοιας τεχνολογίας μας πλησιάζει σταδιακά, και οι ανώτεροι υπεύθυνοι λήψης αποφάσεων μπορεί να είναι οι τελευταίοι που θα το μάθουν.
Η τεχνητή νοημοσύνη υπόσχεται να βοηθήσει σημαντικά τις κεντρικές τράπεζες, βοηθώντας τες στον αυξανόμενο αριθμό καθηκόντων που αντιμετωπίζουν, επιτρέποντάς τους να χρησιμοποιούν αποτελεσματικότερα τους περιορισμένους πόρους και να εκτελούν πιο αποτελεσματικά το έργο τους. Πρόκειται να αλλάξει τόσο τον κανονισμό λειτουργίας όσο και τις ανάγκες των εργαζομένων. Αν και οι περισσότεροι κεντρικοί τραπεζίτες μπορεί να μην γίνουν ειδικοί στην AI, είναι πιθανό να χρειαστεί να “μιλάνε” με την AI – να είναι εξοικειωμένοι με αυτήν – και να είναι σε θέση να δέχονται οδηγίες από τις μηχανές τεχνητής νοημοσύνης αλλά και να τις διαχειρίζονται.
Οι πλέον υψηλόβαθμοι υπεύθυνοι για τις λήψης σημαντικών αποφάσεων πρέπει να εκτιμήσουν τον τρόπο με τον οποίο οι συμβουλές της AI διαφέρουν από αυτές που παράγονται από εξειδικευμένους επιστήμονες, και να διαμορφώσουν τόσο τις πολιτικές ανθρώπινου δυναμικού τους όσοσ και την οργανωτική δομή τους προκειμένου να επιτρέπουν την αποτελεσματικότερη χρήση της AI χωρίς να απειλείται η λειτουργία του οργανισμού.
* Ο Jon Danielsson είναι Director, Systemic Risk Centre London School Of Economics And Political Science (Σχολή Οικονομικών και Πολιτικών Επιστημών του Λονδίνου)
Πηγή: capital.gr
Διαβάστε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο
Το σχόλιο σας