
Για το δοκίμιο του Μπράιαν Κρίστιαν (Brian Christian) «Το πρόβλημα της ευθυγράμμισης: Τεχνητή Νοημοσύνη και ανθρώπινες αξίες» (μτφρ. Γεωργία Κοφτερίδου, εκδ. Ροπή).
Γράφει ο Μύρων Ζαχαράκης
Στο παλιό παραμύθι του Μαθητευόμενου Μάγου, που αναφέρεται σ’ ένα ποίημα του Γκαίτε και που τόσο γλαφυρά απεικόνισε η Disney το 1940, ένας πεπειραμένος μάγος φεύγει για λίγο και αφήνει στο πόδι του έναν νεαρό μαθητευόμενο, από τον οποίο ζητεί να καθαρίσει το σπίτι όσο ο ίδιος θα λείπει. Ο νεαρός, μέσα στην πονηριά του, χρησιμοποιεί τις μαγικές του ικανότητες για να βάλει το σκουπόξυλο και τον κουβά με το νερό να κάνουν τη διαδικασία καθαρισμού αυτόματα. Ο νεαρός, όμως, έχει υπερεκτιμήσει τις δυνατότητές του και από ένα σημείο και έπειτα δεν μπορεί να σταματήσει τη διαδικασία που ο ίδιος ξεκίνησε. Τελικά, το σπίτι πλημμυρίζει και η αποκατάσταση έρχεται αφού καταφθάνει -πάνω στην ώρα- ο πεπειραμένος δάσκαλός του.
Το παραπάνω παραμύθι, εκτός από ψυχαγωγία, προσφέρει και προβληματισμό για το πόσο επικίνδυνο είναι να θέτεις σε εφαρμογή ένα σχέδιο με απρόβλεπτες συνέπειες. Αυτό υποστηρίζει ο Brian Christian στο βιβλίο Το πρόβλημα της ευθυγράμμισης: Τεχνητή Νοημοσύνη και ανθρώπινες αξίες (The alignment problem: Machine Learning and human values, 2020). Το κύριο ερώτημα που απασχολεί τον συγγραφέα μας είναι το ποια νέα ηθικά διλήμματα προξενεί στους ανθρώπους η «βαθιά» και μηχανική μάθηση των μηχανών Τεχνητής Νοημοσύνης.
Υπάρχουν τεχνοκράτες που μοιάζουν πεπεισμένοι ότι η εξελιγμένη τεχνολογία μετατρέπει τα μέχρι πρότινος δυσεπίλυτα ηθικά προβλήματα σε ζητήματα τεχνικής διαχείρισης. Η τεχνική διαχείριση πρακτικά σημαίνει σχετικά απλές και μονοδιάστατες απαντήσεις, στηριγμένες σε ακριβείς επιστημονικούς υπολογισμούς. Το Πρόβλημα της ευθυγράμμισης δείχνει προς την αντίθετη κατεύθυνση. Όσο τα ανθρώπινα διλήμματα καταλήγουν «τεχνικά», τα τεχνικά λαμβάνουν τη μέγιστη δυνατή σημασία, διότι έχουν μετατραπεί σε ανθρώπινα. Αυτό είναι το πρόβλημα του Μαθητευόμενου μάγου ή αλλιώς, το πρόβλημα της «ευθυγράμμισης».
«[…] επικαλούμαστε μια δύναμη, αυτόνομη αλλά τελείως υπάκουη, της δίνουμε μια σειρά οδηγιών κι έπειτα ψάχνουμε σαν τρελοί τρόπους για να τη σταματήσουμε μόλις αντιληφθούμε ότι οι οδηγίες μας είναι ανακριβείς ή ατελείς – εκτός κι αν πάρουμε, με έναν έξυπνο, φρικτό τρόπο, ακριβώς αυτό που ζητήσαμε. Η πρόληψη μιας τέτοιας καταστροφικής απόκλισης –το να διασφαλίσουμε ότι αυτά τα μοντέλα κατανοούν τις νόρμες και τις αξίες μας, καταλαβαίνουν τι εννοούμε και την πρόθεσή μας και, προπαντός, κάνουν αυτό που θέλουμε– έχει εξελιχθεί σε ένα από τα πιο κεντρικά και επείγοντα επιστημονικά ζητήματα στο πεδίο της επιστήμης των υπολογιστών. Έχει και όνομα: το πρόβλημα της ευθυγράμμισης» (σελ. 24).
Όσο περισσότερο προσεγγίζουμε τη δημιουργία συστημάτων που θα μπορούν να υποκαταστήσουν πλήρως τις ανθρώπινες νοητικές λειτουργίες («ισχυρή» ΤΝ: strong AI), τόσο πιο επείγουσα γίνεται η ευθυγράμμιση. Το βιβλίο τούτο, που συνδέει με εκλαϊκευμένο ύφος επιστημονικές πληροφορίες και αμφιλεγόμενες καταστάσεις, χωρίζεται σε κεφάλαια αφιερωμένα σε μια δέσμη ηθικών θεμάτων. Ας δούμε εδώ, ενδεικτικά, το κεφάλαιο περί δικαιοσύνης. Ως γνωστόν, η δικαιοσύνη πόρρω απέχει του να είναι μια μονοσήμαντη έννοια. Με ποιους τρόπους την επηρεάζουν οι επιστημονικές εφευρέσεις της Τεχνητής Νοημοσύνης (ΤΝ);
Το σύστημα COMPAS
Σε μερικές Πολιτείες των ΗΠΑ, μας λέει ο Christian, έχει ήδη αρχίσει να χρησιμοποιείται για τα καλά το πρωτοποριακό σύστημα C.O.M.P.A.S (Correctional Offender Management Profiling for Alternative Sanctions), που αναπτύχθηκε το 1998 και στηρίζεται στη χρήση απλών στατιστικών μεταβλητών για να προβλέπει τις πιθανότητες ένας κρατούμενος να επαναλάβει την παραβατική συμπεριφορά του, αφότου έχει αποφυλακισθεί. Το σύστημα COMPAS άρχισε να λαμβάνεται σοβαρά υπόψη για τη λήψη αποφάσεων των δικαστών, για να καθορισθεί αν πρέπει ή δεν πρέπει να χορηγηθεί αναστολή σε έναν παραβάτη. Εκ πρώτης όψεως, το σύστημα έδειχνε άψογο. Επιτέλους, είχε βρεθεί ένας τρόπος να αξιολογούμε αντικειμενικά και συναισθηματικά ουδέτερα, στην Ποινική Δικαιοσύνη, ποιοι είναι «υψηλού κινδύνου» και ποιοι όχι.
Συγκεκριμένα, οι μαύροι κατηγορούμενοι είχαν δύο φορές υψηλότερες πιθανότητες να χαρακτηρισθούν «υψηλού κινδύνου» αλλά να μην διαπράξουν νέα εγκλήματα, σε αντίθεση με τους λευκούς, οι οποίοι είχαν διπλάσιες πιθανότητες να διαπράξουν νέα εγκλήματα, αφού είχαν θεωρηθεί «χαμηλού κινδύνου».
Δυστυχώς, ο ενθουσιασμός διακόπηκε άδοξα κατά τον Μάιο του 2016, όταν η ειδική δημοσιογράφος Julia Angwin δημοσίευσε στο ProPublica το πολύκροτο άρθρο της με τον τίτλο «Μηχανικές προκαταλήψεις». Το συμπέρασμα που εξήγαγε εκεί είναι ότι το -υποτίθεται αμερόληπτο- COMPAS μεροληπτούσε εναντίον των εχόντων μαύρη επιδερμίδα πολιτών. Συγκεκριμένα, οι μαύροι κατηγορούμενοι είχαν δύο φορές υψηλότερες πιθανότητες να χαρακτηρισθούν «υψηλού κινδύνου» αλλά να μην διαπράξουν νέα εγκλήματα, σε αντίθεση με τους λευκούς, οι οποίοι είχαν διπλάσιες πιθανότητες να διαπράξουν νέα εγκλήματα, αφού είχαν θεωρηθεί «χαμηλού κινδύνου». Πού οφείλεται τούτη η υπολογιστική «μεροληψία»; Άρθρα διαδέχονταν το ένα το άλλο για να δώσουν απάντηση.
Σύμφωνα με τον Christian, η αιτία ήταν ότι το COMPAS λειτουργούσε με «βαθμονόμηση», από το ένα έως το δέκα, λαμβάνοντας υπόψη τα καταγεγραμμένα δεδομένα για τη συχνότητα στην επανάληψη των παραβάσεων των δύο προαναφερθέντων πληθυσμών. Αποτέλεσμα; Οι μαύροι υπέστησαν τη μηχανική μεροληψία του ίδιου συστήματος που είχε τεθεί σε λειτουργία ακριβώς για να υπερβαίνει τις μεροληψίες. Το σύστημα, πόρρω απέχοντας από την εξάλειψη των διακρίσεων, δεν έκανε κάτι άλλο από το να τις αναπαράγει, αλλά υπό την καμουφλαρισμένη μορφή της τεχνικής «αντικειμενικότητας». Δεν μπορούμε άραγε να επιδιορθώσουμε αυτό το ατυχές σφάλμα; Τα πράγματα δεν είναι τόσο απλά, εξηγεί ο Christian.
Η μία ερμηνεία αξιώνει την απόλυτη ουδετερότητα (στο χρώμα δέρματος, εν προκειμένω), η άλλη υποστηρίζει τη στοχευμένη υπεράσπιση των μειονοτήτων με ιστορικό βιωμάτων καταπίεσης («θετικές διακρίσεις»).
Όπως αποκάλυψε η αντιπαράθεση των άρθρων, ερχόμαστε αντιμέτωποι με δύο αλληλοσυγκρουόμενα κριτήρια που δεν είναι πιθανό να συμβιβασθούν μεταξύ τους. Από τη μια μεριά έχουμε την ακριβή καταμέτρηση των ποσοτικών δεδομένων (παραβάσεων), από την άλλη υπάρχει το αίτημα, που έχει τη βάση του στο άρθρο του Αμερικανικού Συντάγματος, απάλειψης των φυλετικών διακρίσεων, κατά την πρόληψη των εγκλημάτων. Για την ακρίβεια, βρισκόμαστε αντιμέτωποι με δύο διαφορετικές ερμηνείες της έννοιας «δικαιοσύνη». Η μία ερμηνεία αξιώνει την απόλυτη ουδετερότητα (στο χρώμα δέρματος, εν προκειμένω), η άλλη υποστηρίζει τη στοχευμένη υπεράσπιση των μειονοτήτων με ιστορικό βιωμάτων καταπίεσης («θετικές διακρίσεις»).
Η ΤΝ δεν μπορεί να λύσει το πρόβλημα
Προκύπτει, λοιπόν, σιγά σιγά μια πικρή διαπίστωση: όπως και τα υπόλοιπα επιστημονικά εργαλεία, η ΤΝ είναι δεν μπορεί να λύσει το πρόβλημα για μας. Είναι μια ηθική απόφαση και είναι στα χέρια των ανθρώπων. Το πρόβλημα του COMPAS είναι μόνον ένα από τα πολλά. Ένα ακόμη είναι ότι η ΤΝ είναι τρόπον τινά «συντηρητική». Πράγματι, η ΤΝ επιδίδεται σε προβλέψεις του μέλλοντος με κριτήριο εκείνα που έχουν ήδη συμβεί. Οι προβλέψεις είναι γενικά σημαντικές, επειδή οδηγούν σε ενεργά μέτρα πρόληψης. Η αίσθηση πως η ΤΝ είναι ακριβής, δίνει σε πολλούς ανθρώπους μια αίσθηση σιγουριάς, η σιγουριά όμως είναι αυτή που ενισχύει τη «δυσκαμψία» του συστήματος, τροφοδοτώντας έναν αέναο φαύλο κύκλο. Παράλληλα, τα μέτρα πρόληψης ευνοούν κάποτε νέες μορφές προβλημάτων, αντί να τα εξαφανίζουν ολότελα.
Ας δούμε ακόμη ένα παράδειγμα από τον χώρο της δημόσιας ασφάλειας. Ας φανταστούμε ένα εργαλείο πρόβλεψης παραβάσεων του Κώδικα Οδικής Κυκλοφορίας. Θα μπορούσε να λειτουργεί επικουρικά στους ελέγχους της Τροχαίας. Αν για παράδειγμα μας φανέρωνε πως οι άνδρες οδηγοί ρέπουν πιο πολύ σε παραβάσεις από ό,τι οι γυναίκες, αναμενόμενα θα γίνονταν περισσότεροι έλεγχοι στους άνδρες και λιγότεροι στις γυναίκες. Τι αποτέλεσμα θα είχε κάτι τέτοιο για τις γυναίκες; Αν οι γυναίκες οδηγοί γνώριζαν προκαταβολικά πως είναι λιγότερο πιθανό να τις σταματήσει ένας τροχονόμος, μήπως θα ενθαρρύνονταν έμμεσα να οδηγούν με λιγότερη ασφάλεια;
Αν συνέβαινε αυτό, θα επρόκειτο για το περίφημο φαινόμενο της «ετερογονίας των σκοπών»: ακριβείς προβλέψεις θα μας κατεύθυναν σε στοχευμένες παρεμβάσεις, αλλά οι παρεμβάσεις αυτές δεν θα σταματούσαν την παρανομία αλλά θα την έστρεφαν σε διαφορετική κατεύθυνση, δημιουργώντας ένα «τυφλό σημείο» στον αστυνομικό έλεγχο. Το τεχνολογικό εργαλείο που φτιάχτηκε για να υπερασπίσει την ασφάλειά μας, θα έκανε το εντελώς αντίθετο.
Σε μια τέτοια περίπτωση, θα είχαμε το παράδοξο η «τελευταία λέξη» της επιστήμης και της τεχνολογίας να υπηρετεί τη διαιώνιση παλαιών και κοινωνικά βλαβερών στερεοτύπων.
Δεν αληθεύει ότι η βαθιά μάθηση αποφεύγει τις πάσης φύσεως διακρίσεις επειδή είναι απρόσωπη. Αντίθετα, αντανακλά και ενισχύει τις δικές μας παγιωμένες διακρίσεις, αφού είναι φτιαγμένη για να μαθαίνει μέσω ανατροφοδότησης από την ανθρώπινη συμπεριφορά. Αν λόγου χάρη ένα σύστημα ΤΝ συγκεντρώνει δεδομένα και εξαιτίας αυτών καταγράψει ότι μια γειτονιά της Νέας Υόρκης έχει ισχυρότερη εγκληματικότητα από άλλες, στατιστικά, οι αστυνομικοί έλεγχοι θ’ αυξηθούν εκεί, αντανακλώντας μιαν αρνητική προκατάληψη. Οι κάτοικοι της περιοχής μπορεί ν’ αντιληφθούν αρνητικά τούτη την προκατάληψη εναντίον τους και εξαιτίας αυτού, η εγκληματικότητα να γνωρίσει απρόσμενη αύξηση. Σε μια τέτοια περίπτωση, θα είχαμε το παράδοξο η «τελευταία λέξη» της επιστήμης και της τεχνολογίας να υπηρετεί τη διαιώνιση παλαιών και κοινωνικά βλαβερών στερεοτύπων.
Τελικά, τι μπορεί (και πρέπει) να γίνει; Το πρώτο βήμα, προς το οποίο δείχνει το βιβλίο του Brian Christian, είναι η ηθική εγρήγορση. Το βαθύτερο πρόβλημα της Τεχνητής Νοημοσύνης είναι ότι μπορεί να αναδείξει αλλά δεν είναι σε θέση να λύσει η ίδια τα ηθικά μας διλήμματα. Τα διλήμματα μπορούν να επιλυθούν με ιεράρχηση αξιών από τους ανθρώπους, που στις φιλελεύθερες δημοκρατίες επιχειρείται ελεύθερα και μέσω δημόσιας διαβούλευσης:
«Καθώς οι πράκτορες τεχνητής νοημοσύνης στον κόσμο γίνονται ολοένα και πιο εξελιγμένοι, θα χρειαστούν καλά μοντέλα ανθρώπων, για να καταλάβουν πώς λειτουργεί ο κόσμος και τι πρέπει και τι δεν πρέπει να κάνουν. Αν μας μοντελοποιήσουν ως αμιγείς, ασυγκράτητους και αλάνθαστους μεγιστοποιητές ανταμοιβών, και δεν είμαστε, τότε θα περάσουμε άσχημα. Αν κάποιος κάνει τα πάντα για να σε βοηθήσει και δεν καταλαβαίνει πραγματικά τι θέλεις – είτε άμεσα ή στη ζωή- τότε μπορεί να καταλήξεις χειρότερα απ’ ότι αν δεν προσπαθούσε να σε βοηθήσει καθόλου. Αν αυτός ο παραπλανητικός βοηθός πρέπει να είναι, ας πούμε, υπεράνθρωπα έξυπνος και ισχυρός- τόσο το χειρότερο» (σελ. 314).
Η Τεχνητή Νοημοσύνη θα παραμείνει ο αδυσώπητα αποκαλυπτικός «καθρέπτης» μας, που αντανακλά τις βαθύτερες ηθικές μας προτεραιότητες.
* Ο ΜΥΡΩΝ ΖΑΧΑΡΑΚΗΣ είναι υποψήφιος διδάκτωρ Φιλοσοφίας.
Λίγα λόγια για τον συγγραφέα
Ο Μπράιαν Κρίστιαν (Brian Christian), συγγραφέας και ερευνητής, είναι ευρέως αναγνωρισμένος για την προσέγγισή του στην ανθρώπινη πλευρά της τεχνολογίας. Μέσα από τα βιβλία του, όπως το The most human human και το Algorithms to live by, διερευνά την επίδραση των αλγορίθμων και των υπολογιστικών συστημάτων στην καθημερινότητά μας.

Γεννημένος στο Γουίλμινγκτον του Ντέλαγουερ, ο Κρίστιαν είναι κάτοχος πτυχίων στη Φιλοσοφία, την Επιστήμη των Υπολογιστών και την Ποίηση από το Πανεπιστήμιο Μπράουν και το Πανεπιστήμιο της Ουάσινγκτον. Έχει διατελέσει επισκέπτης ερευνητής στο Πανεπιστήμιο της Καλιφόρνια, στο Μπέρκλεϊ, και Διευθυντής Τεχνολογίας στον εκδοτικό οίκο McSweeney’s.
Παράλληλα, συνεισφέρει ενεργά σε έργα ανοικτού κώδικα, όπως το Ruby on Rails. Μοιράζει το χρόνο του ανάμεσα στο Σαν Φρανσίσκο και το Ηνωμένο Βασίλειο.
























