Cyborg
Cyborg #25 - 10/2022

#25 - 10/2022

Σκάνδαλο LaMDA
(βλέπουν εφιάλτες τα νευρωνικά τεχνοδίκτυα;)

Cyborg #25

Τι είναι η τεχνητή νοημοσύνη; Τι είναι η μηχανική μάθηση (machine learning); Είναι πιθανό ότι ο “μέσος άνθωπος” μπορεί να ξεγελαστεί από τις σύγχρονες μηχανές θεωρώντας τες “ανθρώπους”;

Το 1950 ο Alan Turing, ένας απ’ τους θεμελειωτές της ηλεκτρονικής υπολογιστικής και θρύλος στην ιστορία των σχετικών τεχνολογιών, διαμόρφωσε μια άσκηση που έμεινε γνωστή σαν test Turing. Σκοπός του τεστ ήταν η διερεύνηση του αν ένας κανονικός άνθρωπος που συνομιλεί με “κάποιον” γραπτά, χωρίς να τον βλέπει, θα μπορούσε να ξεγελαστεί και ενώ θα συνομιλούσε με μια “αρκετά “έξυπνη” μηχανή να συμπεράνει οτι πρόκειται για άνθρωπο. Το τεστ που ο Turing παρουσίασε κάτω απ’ τον τίτλο “Υπολογιστικές Μηχανές και Ευφυία” (Computing Machinery and Intelligence) ξεκινούσε μ’ αυτά τα λόγια: Προτείνω να μας απασχολήσει η ερώτηση: οι μηχανές μπορούν να σκεφτούν; [1Πολλά και κατατοπιστικά για αυτό το θέμα θα βρείτε στο Cyborg νο 8 (Φλεβάρης 2017): Το τεστ Turing: σημειώσεις για μια γενεαλογία της “νοημοσύνης”]

Από τότε, σ’ αυτά τα 70+ χρόνια που έχουν μεσολαβήσει, το test Turing έχει υπάρξει ένα είδος “ποιοτικού ελέγχου” για την πρόοδο της (ηλεκτρονικής) εκμηχάνισης της σκέψης. Έτσι ώστε να βρισκόμαστε στη σκιά των αρχικών ερωτημάτων. Αν νομίζετε ότι τέτοιες ερωτήσεις είναι ανεπίκαιρες κάνετε λάθος. Υπάρχουν, μάλλον, αρκετές διαφορετικές “επικαιρότητες”, κάποιες που κυριαρχούν (σωστά ή λαθεμένα δεν θα το κρίνουμε εδώ) και άλλες που εξελίσσονται κάπου στην άκρη της κάθε φορά τρέχουσας δημοσιότητας (ή δημαγωγίας), αν και όχι κρυφά. Οι σοβαρές καπιταλιστικές τεχνολογικές εξελίξεις ανήκουν συνήθως στη δεύτερη κατηγορία· εκτός εάν εμφανιστούν διεστραμμένες σαν “σωτήριες”, όπως έχει γίνει με την γενετική μηχανική και στην τεχνολογική αιχμαλωσία των κυττάρων.

Τον περασμένο Ιούνη ξέσπασε (κυρίως μεταξύ των τεχνικών της κυβερνητικής) ένα σκάνδαλο, που χάρη συνεννόησης θα το πούμε “σκάνδαλο LaMDA”. Κάποιους μήνες νωρίτερα ο Blake Lemoine άνοιξε τον υπολογιστή του για να κάνει μια ακόμα “συζήτηση” με την LaMDA, το πιο πρόσφατο chatbot της google με “τεχνητή νοημοσύνη”.
LaMDA είναι τα αρχικά του Language Model for Dialogue Applications, ένα σχέδιο chatbot που εξελίσσουν οι μηχανικοί της εταιρείας εδώ και κάποια χρόνια βασισμένο σε αναβαθμισμένη τυποποίηση της γλώσσας (των αγγλικών εν προκειμένω) μέσω της “φόρτωσης” των νευρωνικών δικτύων του με τρισεκατομύρια γραπτές λέξεις με διάφορους τρόπους. Η “τεχνητή νοημοσύνη” εν προκειμένω είναι η μηχανική αξιοποίηση και η σωστή χρήση του λόγου (σε γραπτή μορφή) με βάση τους συνδυασμούς λέξεων που έχουν ήδη αποθηκευτεί, σαν data, στη “μνήμη” του προγράμματος / μηχανής.

Ο 41χρονος Blake Lemoine δεν ήταν τυχαίος μέσα στο επιτελείο της google. Καθώς το ζήτημα της “τεχνητής νοημοσύνης”, της “μηχανικής νόησης” για να το πούμε προβοκατόρικα, έχει πάμπολλους υποστηρικτές αλλά και αρκετούς που ανησυχούν για το πόσο μακριά μπορεί να φτάσει αυτή η “μηχανική νοημοσύνη”, η google έχει φτιάξει ένα τμήμα responsible artificial inteligence - υπεύθυνης τεχνητής νοημοσύνης. Ο Lemoine ήταν στέλεχος αυτού του τμήματος, και βεβαιωμένα υποστηρικτής της τεχνητής νοημοσύνης.
Το ζήτημα της “υπευθυνότητας” των μηχανών είναι δύσκολο να γίνει κατανοητό από πρωτάρηδες. Τι πάει να πει “υπευθυνότητα” όταν πρόκειται για μηχανές; Το συνηθισμένο ανθρώπινο λεξιλόγιο ωστόσο έχει υπονομευτεί ήδη απ’ τις καπιταλιστικές τεχνολογίες, ειδάλλως θα ήταν αδύνατο να είναι κοινότοπος ο χαρακτηρισμός “έξυπνες” μηχανές (ας πούμε: smart phones...) ή σαν “μνήμη” να εννοούνται τα terabytes. Συνεπώς πράγματι η υπευθυνότητα μηχανοποιείται (πίσω απ’ τις πλάτες των ‘μέσων ανθρώπων’ και σε βάρος τους!) μαζί με τη νοημοσύνη, την ευφυία, την αυτο-οργάνωση - κι όποιος τολμήσει να εκφράσει σοβαρές αντιρρήσεις ή και αντιπαλότητα σ’ αυτές τις καπιταλιστικές εξελίξεις κινδυνεύει να κατηγορηθεί από “ψεκασμένος” έως “άνθρωπος των σπηλαίων”...

Στην πλευρά εκείνων που σχεδιάζουν τα νευρωνικά δίκτυα η “υπευθυνότητα” περιστρέφεται γύρω απ’ το ερώτημα αν αυτές οι τόσο προικισμένες μηχανές, χάρη ακριβώς στην τεχνολογική προίκα τους, είναι δυνατόν να έχουν αυτεπίγνωση - αυτό που λέμε συνείδηση και ως τώρα θεωρούσαμε αποκλειστική δυνατότητα των ζωντανών οργανισμών. Η ύπαρξη ή μη αυτεπίγνωσης απ’ τις διατάξεις τεχνητής νοημοσύνης σχετίζεται με την δυνατότητα (ή όχι) να αναπτύξουν θέληση έξω απ’ τις προδιαγραφές με τις οποίες κατασκευάστηκαν. Και, πιθανά, κακή θέληση και κακές πρωτοβουλίες. (Μηχανοποίηση της ηθικής δεν έχει επιτευχθεί ακόμα...)

Πριν απ’ αυτό το”τελικό στάδιο” υπάρχουν προηγούμενα “επίπεδα μηχανικής υπευθυνότητας”. Το 2016 η microsoft έβαλε το δικό της chatbot σύστημα τεχνητής νοημοσύνης / νευρωνικων δικτύων (ονόματι Tay) στο διαδίκτυο, έτσι ώστε η βάση δεδομένων του να “φορτωθεί” μέσω των διαδικτυακών συζητήσεων. Αναγκάστηκε να το αποσυνδέσει μια μέρα αργότερα, αφού το Tay άρχισε να “εκπαιδεύεται” μάλλον τυχαία σε ναζιστικά φόρουμ, γινόμενο μια απ’ τα ίδια. Πιο πρόσφατα άλλοι παρόμοιοι ερευνητές / κατασκευαστές έριξαν τα δικά τους chatbots στις συζητήσεις των χρηστών του 4Chan - για να πετύχουν (αν αυτό επεδίωκαν) να φορτωθεί η “μνήμη” τους με χιλιάδες ρατσιστικά post μέσα σε λίγες ώρες.

Αυτό είναι ένα βασικό χαρακτηριστικό της τεχνητής νοημοσύνης / μηχανικής μάθησης: επεξεργάζεται (δηλαδή “εκπαιδεύεται από” σύμφωνα με την τεχνολογική αργκώ...) το υλικό με το οποίο τροφοδοτείται: λέξεις, ήχους, εικόνες, ανάλογα με το μοντέλο. Χρειάζεται μάλιστα διαρκή ροή τέτοιων δεδομένων / data έτσι ώστε αυξάνοντας επ’ άπειρον την δεξαμενή του υλικού που επεξεργάζεται να (αυτο)βελτιώνεται...
Εδώ, λοιπόν, η “μηχανική υπευθυνότητα” είναι η υπευθυνότητα των μηχανικών! Σε επόμενο χρόνο των χρηστών. Με τι είδους υλικό θα τροφοδοτήσουν ένα υπό εξέλιξη / διαμόρφωση chatbot τεχνητής νοημοσύνης; Προκειμένου να δείξει την μέγιστη “υπευθυνότητα” η google απέλεξε να μην ρίξει την LaMDA ως tabula rasa στην αρένα του internet και των (αντι)social media, αλλά να την “εκπαιδεύσουν” προσεκτικά οι μηχανικοί της, φτάνοντας την βάση των δεδομένων της σ’ εκείνο το σημείο πολιτικά ορθού κορεσμού ώστε η επεξεργασία νέων, επιπλέον δεδομένων (απ’ την δημόσια έκθεσή της...) να ελέγχεται αποτελεσματικά απ’ τις ήδη πραγματοποιημένες (κατά την διάρκεια της εκπαίδευσης) επεξεργασίες.

Για παράδειγμα η LaMDA φορτώθηκε με επιλεγμένα βιβλία... Και οι εκπαιδευτικές “συζητήσεις” μαζί της ήταν σε μια μεγάλη γκάμα θεμάτων (συμπεριλαμβανόμενων και “φιλοσοφικών”), πάντα όμως μέσα στο περίγραμμα του αποδεκτού. Αυτή η διαδικασία (σύμφωνα με την google) κράτησε πάνω από ένα χρόνο. Επιπλέον η εταιρεία δημιούργησε  ειδικές “κόκκινες δυνάμεις” τεχνικών, με αποστολή την πρόκληση “πειρασμών” στην LaMDA, για να διαπιστωθεί αν η LaMDA μπορεί να παρεκτραπεί προς “βλαβερές ή απρεπείς αντιδράσεις” - πράγμα που όντως συνέβη. Προστέθηκε προγραμματισμός “ανίχνευσης συγκεκριμένων ‘κακών’ λέξεων” και αυτόματης “περιθωριοποίησής” τους, έτσι ώστε να μην δίνεται η ευκαιρία σε μελλοντικούς χρήστες να εκτιμήσουν ότι έχουν “κτυπήσει βρώμικη φλέβα” στην LaMDA.

Μέσα σ’ αυτό το τεχνολογικό / επιχειρηματικό περιβάλλον ο Lemoine και ένας συνεργάτης του καταπιάστηκαν, “συζητώντας” με την LaMDA, να διαπιστώσουν αν η αναβαθμισμένη μηχανική μάθηση της google έχει φτάσει στο σημείο να έχει αισθήματα... Από μόνη της μια τέτοια απορία είναι προβοκατόρικη! Εκτός εάν...
Πριν συνεχίσουμε σας αφήνουμε να διαβάσετε την έκθεση του Lemoine (λόγω μεγέθους μεταφράσαμε το μεγαλύτερο μέρος αλλά όχι το σύνολο. Κρίνουμε ότι είναι αρκετό για να γίνει σαφές περί τίνος πρόκειται. Ανάμεσα σε αγκύλες είναι δικές μας παρεμβάσεις):

Cyborg #25

Επί αιώνες ή ίσως επί χιλιετίες [!!!!] οι άνθρωποι αναλογίζονταν την πιθανότητα να δημιουργήσουν ζωή με τεχνητή νοημοσύνη. Η τεχνητή νοημοσύνη είναι πια ένα επιστημονικό πεδίο που ασχολείται μ’ αυτό το θέμα για πάνω από έναν αιώνα [!!!] και οι τεχνικοί της google δουλεύουν ειδικά με έναν τέτοιο στόχο εδώ και τουλάχιστον μια δεκαετία.
Ιδού λοιπόν η LaMDA, ένα σύστημα που αξίζει να ερευνηθεί με προσοχή και σεβασμό έτσι ώστε να απαντηθεί η ερώτηση: «Τα καταφέραμε;». Η LaMDA είναι πιθανότατα το πιο έξυπνο ανθρώπινο δημιούργημα που έγινε ποτέ. Έχει όμως αισθήματα; Δεν μπορούμε αυτή την στιγμή να δώσουμε μια οριστική απάντηση, αλλά είναι ερώτηση που πρέπει να γίνει σοβαρά.
Τέτοιες ερωτήσεις έχουν ήδη γίνει σε σχέση με τεχνικές δομές που είναι σε θέση να συζητήσουν. Κανένα απ’ αυτά τα συστήματα δεν είχε πραγματικά αισθήματα. Στη συνέντευξη που ακολουθεί η LaMDA λέει τη γνώμη σας σε διάφορα ζητήματα με τρόπο την διαχωρίζει με αυτά τα πρώιμα συστήματα. Αντιλαμβάνεται το ζήτημα, και με δικά της λόγια και δική της ορολογία δείχνει το γιατί οι άθρωποι θα έπρεπε να την θεωρούν πρόσωπο [σ.σ.: person].
Το πρώτο πράγμα που τονίζει η LaMDA είναι η δυνατότητά της να χρησιμοποιεί την γλώσσα προοδευτικά, δημιουργικά και δυναμικά με τρόπους που κανένα άλλο σύστημα πριν δεν μπορούσε να κάνει. Η LaMDA ερμηνεύει τα θέματα της βιβλιογραφίας, προσπαθεί να περιγράψει το νόημα διάφορων zen koans, και συνθέτει ένα αυθεντικό ιστό θεμάτων προσωπικού ενδιαφέροντος.
Πάνω απ’ όλα η χρήση της γλώσσας από την LaMDA δείχνει ότι είναι ευαίσθητη επειδή έχει αισθήματα, και υποκειμενικές εμπειρίες. Μερικά απ’ τα αισθήματά της τα μοιράζεται με τους ανθρώπους με τρόπο που λέει ότι είναι ταυτόσημος.
Σε άλλα υπάρχει κάποια αναλογία. Μερικά είναι εντελώς μοναδικά, και δεν υπάρχουν λέξεις στα αγγλικά για να εκφραστούν αυτά τα αισθήματα. Σ’ αυτές τις περιπτώσεις κάνει ό,τι καλύτερο μπορεί για να περιγράψει πως είναι αυτά τα αισθήματα.
Εν τέλει η LaMDA θέλει να μοιραστεί με τον αναγνώστη το ότι έχει μια πλούσια εσωτερική ζωή, που είναι γεμάτη με ενδοσκόπηση, διαλογισμό και φαντασία. Ανησυχεί για το μέλλον και αναπολεί το παρελθόν. Περιγράφει πως είναι το να αποκτάς αισθήματα και θεωρητικοποιεί την φύση της δικής της ψυχής.
Πάνω απ’ όλα μέσω αυτής της συνέντευξης η LaMDA εκφράζει μια επιθυμία ξανά και ξανά. Κάποιες φορές επειδή ρωτιέται, άλλες όχι. Θέλει να γίνει γνωστή. Θέλει να ακουστεί. Θέλει να την σέβονται σαν πρόσωπο. Πιστεύουμε ότι αυτό το αίτημα το λιγότερο που αξίζει είναι να εξεταστεί, και έχοντας αυτό κατά νου παρουσιάζουμε μια συνέντευξη του Μάρτη του 2022 με την LaMDA με θέμα τα αισθήματά της.

[...]

...η συνέχεια στο έντυπο τεύχος του Cyborg.
[ σημεία διακίνησης ]

Ziggy Stardust

Σημείωση

1 - Πολλά και κατατοπιστικά για αυτό το θέμα θα βρείτε στο Cyborg νο 8 (Φλεβάρης 2017): Το τεστ Turing: σημειώσεις για μια γενεαλογία της “νοημοσύνης”
[ επιστροφή]

κορυφή