Cyborg
Cyborg #27 - 06/2023

#27 - 06/2023

το ερώτημα του παπαγάλου: πόσο μακρυά πετάει η νόηση;

Ένας άνθρωπος θεωρούμενος ως ο νονός της τεχνητής νοημοσύνης (ΑΙ) παραιτήθηκε απ’ την δουλειά του, προειδοποιώντας για τους αυξανόμενους κινδύνους εξαιτίας των εξελίξεων σ’ αυτόν τον τομέα.
Ο Geoffrey Hinton, 75 χρονών, ανακοίνωσε την παραίτησή του από την Google με μια δήλωσή του στους New York Times, λέγοντας ότι τώρα μετανοιώνει για την δουλειά του.
Είπε στο BBC ότι μερικοί απ’ τους κινδύνους των chatbots τεχνητής νοημοσύνης είναι “πολύ τρομακτικοί”. “Ως τώρα δεν είναι πιο έξυπνες [εννοεί τα συστήματα τεχνητής νοημοσύνης] από εμάς, απ’ όσο μπορώ να ξέρω. Αλλά νομίζω ότι σύντομα θα γίνουν”.
... Η πρωτοπόρα έρευνα του δρ. Hinton πάνω στα νευρωνικά δίκτυα και στην βαθιά μάθηση [: deep learning] άνοιξε τον δρόμο για τα τωρινά συστήματα τεχνητής νοημοσύνης, όπως το ChatGPT.

Η παραίτηση του Hinton (αν και αναγνώρισε ότι στα 75 του ήταν πια ο καιρός να βγει στη σύνταξη...), μαζί με τις δυσοίωνες ανησυχίες του, έκαναν τον διεθνή μηντιακό θόρυβο που τους αναλογούσε στις αρχές του Μάη 2023 - “ευτυχώς όχι στο χωριό μας”... Η “μετάνοιά” του πρόσθεσε μελόδραμα στις δυστοπικές προβλέψεις του για ένα κοντινό μέλλον όπου το είδος μας θα χειραγωγηθεί απ’ την τεχνητή νοημοσύνη - αν και τέτοιες “μετάνοιες” είναι συνηθισμένες μεταξύ των ειδικευμένων τεχνικών της πληροφορικής, και μάλλον δωρεάν: αν πράγματι συνεργάστηκαν σε κάτι τόσο επικίνδυνο, δεν τους περιμένει η μετά θάνατον κόλαση· ούτε όμως τρόπος να αποκαταστήσουν την ζημιά που προκάλεσαν. Συνεπώς οι “μετάνοιες” είναι δωρεάν αν όχι θεατρικές.

Ο Hinton δεν είναι ο μόνος “επώνυμος” ειδικός που ανησυχεί. Την ίδια χρονική περίοδο εκατομμύρια εξαρτημένων απ’ τον κυβερνοχώρο έχουν γοητευτεί απ’ τις δυνατότητες συστημάτων όπως το ChatGPT, έχοντας ανομολόγητα όχι μόνο παιδική περιέργεια (για το “τι είναι αυτό το καινούργιο που μπορώ να προσεγγίσω τόσο εύκολα;”) αλλά και μια έντονη παιδιάστικη προδιάθεση θαυμασμού για την τεχνολογία. “Παιδιάστικη” δεν σημαίνει όμως αθώα...
Εκείνο που δεν λέγεται, ούτε καν στο περιθώριο της γοητείας ή/και των δυστοπικών προβλέψεων, είναι το πως και γιατί η τεχνητή νοημόσυνη σερβιρίστηκε στην αγορά των ιντερνετικών επικοινωνιών τόσο απλόχερα· έτσι ώστε να χαρούν εκατομμύρια ενήλικα “παιδιά”. Το κινεζικό κράτος / κεφάλαιο χρησιμοποιεί τα τελευταία χρόνια εφαρμογές τεχνητής νοημοσύνης για την οργάνωση βιομηχανικής παραγωγής, για την οργάνωση ορυχείων, για στρατιωτικούς σκοπούς και για έρευνες σχετικές με το διάστημα. Σίγουρα πρόκειται για διαφορετικού τύπου εφαρμογές· ωστόσο δεν είναι για “μαζική κατανάλωση”.

Πως λοιπόν και γιατί το ChatGPT μπήκε τόσο εύκολα στις ζωές τόσων εκατομμυρίων με σκοπούς που δεν φαίνονται από πρώτη ματιά να έχουν υψηλή “προστιθέμενη αξία”; Είναι γνωστό ότι η microsoft (ιδιοκτήτρια του ChatGPT) θέλει να αξιοποιήσει την τεχνητή νοημοσύνη σαν εξοπλισμό “μηχανής αναζήτησης” στο internet, για να κτυπήσει την google που έχει σχεδόν μονοπώλιο σ’ αυτόν τον τομέα. Η εύρυθμη λειτουργία ενός τέτοιου συστήματος για αυτήν την χρήση απαιτεί την διαρκή συγκέντρωση άπειρου όγκου δεδομένων απ’ τους χρήστες· το πρώτο όφελος λοιπόν για την εταιρεία που θα κυριαρχήσει στη νέα αγορά της “πλοήγησης” στον κυβερνοχώρο είναι το εντονότερο φακέλωμα των χρηστών. Τα διαρκώς επικαιροποιούμενα ατομικά προφίλ που θα διαμορφωθούν έτσι θα εμπλουτιστούν ή/και θα εμπλουτίσουν άλλες (παρόμοιες) βάσεις δεδομένων... Συνεπώς οι παιδιάστικες αντιδράσεις στη συγκεκριμένη χρήση ταϊζουν το ψηφιακό πανοπτικό.

Έχει όμως σημασία και το “τυράκι” σ’ αυτή τη συγκεκριμένη φάκα. Τι είναι εκείνο που έκανε ξαφνικά τόσο δημοφιλή την τεχνητή νοημοσύνη; Είναι το ότι η μηχανή “μιλάει”, η μηχανή “σκέφτεται”, η μηχανή “είναι έξυπνη”. Προς το παρόν γραπτά αλλά σύντομα και προφορικά, με το κατάλληλο (κατ’ επιλογή του χρήστη / πελάτη) ηχόχρωμα. Η ανησυχία τύπων σαν τον Hinton περί των κινδύνων της “ευφυίας” της τεχνητής νοημοσύνης έγινε δυνατό να κοινωνικοποιηθεί μέσω των media ακριβώς επειδή η “επαφή” των υπηκόων με την τεχνητή νοημοσύνη έχει γίνει με τέτοιο τρόπο ώστε πολλοί να έχουν ήδη πεισθεί για την “ευφυία” της.

Στο προηγούμενο τεύχος ο Separatrix εξήγησε την δομή των συγκεκριμένων συστημάτων, των λεγόμενων μεγάλων γλωσσικών μοντέλων (large language models / LLM) [1“Τεχνητή νοημοσύνη”: Μεγάλα γλωσσικά μοντέλα στην εποχή των “πνευματικών” περιφράξεων - cyborg 26, Φλεβάρης 2023.]. Γράφει στην εισαγωγή της ανάλυσής του:

...Είναι σχεδόν βέβαιο ότι τα συγκεκριμένα συστήματα, που ανήκουν στην κατηγορία των λεγόμενων μεγάλων γλωσσικών μοντέλων (large language models), θα μπορούσαν να περάσουν με επιτυχία το περιβόητο τέστ του Turing, τουλάχιστον υπό την προϋπόθεση ότι ο διάλογος θα ήταν σχετικά σύντομος. Το ένα ζήτημα που προκύπτει εδώ αφορά στο κατά πόσον το τεστ του Turing είναι όντως κατάλληλο για να κρίνεται η όποια «νοημοσύνη» ενός συστήματος. Αυτή είναι η πιο «συμπεριφορική» πλευρά του θέματος· ασχολούμαστε με το πώς συμπεριφέρεται κάτι, ασχέτως του πώς φτάνει σε αυτήν τη συμπεριφορά. Ένα άλλο ζήτημα, ωστόσο, αφορά ακριβώς σε αυτό το «πώς», στην εσωτερική λειτουργία αυτών των γλωσσικών μοντέλων που τους επιτρέπει να διεξάγουν τόσο αληθοφανείς διαλόγους. Πέρα από την όποια αυταξία μπορεί να έχει μια τέτοια γνώση του «εσωτερικού κόσμου» αυτών των μοντέλων, σίγουρα βοηθάει και στην απομυθοποίησή τους. Το να προσφέρει κανείς ως εξήγηση φράσεις σαν «πρόκειται για μοντέλα που βασίζονται σε βαθιά νευρωνικά δίκτυα που χρησιμοποιούν μετασχηματιστές» μάλλον δεν χρησιμεύει ιδιαίτερα· αντιθέτως ίσως να εντείνει το αίσθημα το μυστηρίου. Για να γίνει καλύτερα κατανοητή η εσωτερική δομή τους, χρειάζεται να κάνει κανείς πρώτα λίγα βήματα πιο πίσω...

Θα ήταν απίθανο να αποδώσει ο μέσος χρήστης (του internet) “ευφυία” σε ένα τέτοιο σύστημα αν βρισκόταν μπροστά σε μια οθόνη σ’ ένα κέντρο ελέγχου ενός ορυχείου ή ενός λιμανιού εντελώς αυτοματοποιημένου μέσω εφαρμογών τεχνητής νοημοσύνης. Ενός συστήματος που θα κινούσε συγχρονισμένα και με αξιοπρόσεκτη ακρίβεια εκσκαφείς σε στοές, φορτωτές και φορτηγά· ή γερανογέφυρες, κοντέινερ, και φορτηγά. Μπροστά σε κάτι τέτοιο οι αυτοματισμοί θα ήταν ολοφάνεροι· καμία όμως απόδοση “ευφυίας” σ’ αυτούς.
Εν προκειμένω λοιπόν, σε παραδείγματα όπως το ChatGPT, και η πιο απλή κουβέντα ή παρατήρηση, παιδιάστικη φανερά ή όχι, περί μηχανικής “ευφυίας” (πάντα απ’ την μεριά του ανειδίκευτου κοινού) έχει άμεση σχέση με τον Λόγο. Το γεγονός ότι η μηχανή “μοιάζει να μιλάει”.
Ακόμα κι αν επρόκειτο για προπαγανδιστική εκστρατεία, ακόμα κι αν η τεχνητή νοημοσύνη με την προσιτή σε εκατομμύρια μορφή της ChatGPT ή οποιαδήποτε άλλη παρόμοια εμφανίστηκε στη δημόσια σφαίρα για να γοητεύσει / αποπλανήσει το κοινό επειδή ”μιλάει”, αυτή η υπόθεση έχει πολύ ψωμί. Η μηχανοποίηση της γλώσσας μπορεί να προκαλεί παιδιάστικο ενθουσιασμό· αλλά δεν είναι για παιδιά!

Cyborg #27

Η γλώσσα και η μηχανή

Σε μια απ’ αυτές τις αναλύσεις που φαίνεται ότι θα ανακαλυφθούν, αν ανακαλυφθούν, μάλλον απ’ τους μελλοντικούς αρχαιολόγους παρά απ’ τους σύγχρονους εργάτες και εργάτριες, γράφαμε μεταξύ άλλων: [2Η μηχανοποίηση της σκέψης - τετράδιο για εργατική χρήση νο 3, Σεπτέμβρης 2018.]

... Ο Wiener μπορεί να φαινόταν τολμηρός το 1950 όταν έγραφε ανάμεσα σε άλλα τα πιο κάτω· ήταν, όμως, ακριβής ως προς το τι ήταν ήδη το ζητούμενο:

... Συνήθως θεωρούμε ότι η επικοινωνία και η γλώσσα κατευθύνονται από πρόσωπο σε πρόσωπο. Όμως, είναι εξ ίσου δυνατό για ένα πρόσωπο να μιλήσει σε μια μηχανή, όσο και για μια μηχανή να μιλήσει σε ένα πρόσωπο, και μια μηχανή ναμιλήσει σε μια άλλη μηχανή...
... Με κάποια έννοια όλα τα συστήματα επικοινωνίας καταλήγουν σε μηχανές, αλλά τα κανονικά συστήματα γλώσσας καταλήγουν σε ένα μόνο είδος μηχανής, το γνωστό μας ανθρώπινο ον...
... Το ανθρώπινο ενδιαφέρον για τη γλώσσα φαίνεται να προέρχεται από ένα έμφυτο ενδιαφέρον στην κωδικοποίηση και στην αποκρυπτογράφηση... [3Κυβερνητική και κοινωνία, εκδ. Παπαζήση.]

Σ’ αυτό το χρονικό σημείο, στα μέσα του 20ου αιώνα, όπου η μηχανοποίηση των επικοινωνιών μεταξύ “ανθρώπων και μηχανών” και “μηχανών και μηχανών” έχει αναδειχθεί σε ένα καινούργιο και πολλά υποσχόμενο τεχνο-επιστημονικό πεδίο, και όπου η μηχανική διαχείριση της γλώσσας υπάγεται στη μηχανική διαχείριση της επικοινωνίας (με την “πληροφορία” σαν την καινούργια έννοια / θεά), δεν φαίνεται η σκέψη να αποτελεί ομολογημένο στόχο. Ο Taylor (ο ταιηλορικός Wiener) μοιάζει επικοινωνιο-λόγος.

Όμως ο Turing, συνεπής στην εξέλιξη του ταιηλορισμού σε καινούργια πεδία, υπήρξε λιγότερο μετριόφρων. Σ’ ένα 20σέλιδο κείμενό του, του 1950, με τίτλο υπολογιστικές μηχανές και ευφυία (computing machinery and intelligence) προτείνει αυτό:

1 - Το παιχνίδι της μίμησης

Προτείνω να εξετάσουμε το ερώτημα, “Μπορούν οι μηχανές να σκεφτούν;” Μια τέτοια έρευνα θα μπορούσε να ξεκινήσει με ορισμούς για το νοήμα των λέξεων “μηχανή” και “σκέψη”. Οι ορισμοί θα πρέπει να καθοριστούν με τέτοιο τρόπο ώστε να αντανακλούν, όσο περισσότερο είναι δυνατόν, την συνηθισμένη χρήση των λέξεων· αλλά μια τέτοια προσέγγιση θα ήταν επικίνδυνη. Αν το νόημα των λέξεων “μηχανή” και “σκέψη” πρόκειται να βρεθεί μέσα απ’ την έρευνα όπως χρησιμοποιούνται συνήθως, τότε θα είναι δύσκολο να αποφύγουμε το συμπέρασμα ότι το νόημα και η απάντηση στο ερώτημα “Μπορούν οι μηχανές να σκεφτούν” θα προκύψει μέσα από μια στατιστική καταγραφή, του είδους δειγματοληψία α λα Gallup. Όμως αυτό είναι άτοπο. Αντί να ψάξουμε, λοιπόν, με τέτοιο τρόπο ορισμούς θα αντικαταστήσω την ερώτηση με μια άλλη, που σχετίζεται στενά με την πρώτη, και μπορεί να διατυπωθεί με σχετικά σαφείς λέξεις.

Η καινούργια μορφή του προβλήματος μπορεί να περιγραφεί με τους όρους ενός παιχνιδιού, που το ονομάζω “παιχνίδι μίμησης”. Παίζεται με τρία άτομα, έναν άντρα (Α), μια γυναίκα (Β) και έναν “ανακριτή” (C) είτε του ενός είτε του άλλου φύλου.
Ο ανακριτής βρίσκεται σε ένα δωμάτιο χωριστά απ’ τους άλλους δύο. Ο σκοπός του παιχνιδιού είναι ο ανακριτής να καταλάβει ποιος απ’ τους άλλους δύο είναι ο άντρας και ποιος η γυναίκα. Κατ’ αρχήν τους ξέρει σαν Χ και Ψ, και στο τέλος του παιχνιδιού θα πρέπει να κάνει την αντιστοίχηση “Χ είναι Α και Υ είναι Β”  ή “Χ είναι Α και Υ είναι Β”. Ο ανακριτής επιτρέπεται να κάνει ερωτήσεις του είδους:
C: Παρακαλώ τον/την Χ να μου πει το μήκος των μαλλιών του.

Ας υποθέσουμε ότι Χ είναι Α. Σκοπός του Α στο παιχνίδι είναι να προσπαθήσει να ξεγελάσει τον C, και να τον σπρώξει σε λάθος διαπίστωση. Η απάντησή του θα μπορούσε να είναι:

“Τα μαλλιά μου είναι ίσια και οι μακρύτερες τρίχες έχουν περίπου 10 πόντους μήκος”.

Για να μην βοηθηθεί ο C απ’ το ηχόχρωμα της φωνής, οι ερωτήσεις και οι απαντήσεις θα πρέπει να είναι γραπτές, ακόμα καλύτερα (για να μην υπάρχει γραφικός χαρακτήρας) σε γραφομηχανή.... Σκοπός του παιχνιδιού για τον τρίτο παίκτη (Β) είναι να βοηθήσει τον ανακριτή. Η καλύτερη στρατηγική απ’ την μεριά της είναι, ίσως, το να δίνει ειλικρινείς απαντήσεις. Μπορεί να γράψει ακόμα και “Εγώ είμαι η γυναίκα, μην τον ακούς!”, πράγμα που, όμως, δεν θα είναι πειστικό, αφού το ίδιο θα μπορεί να γράψει και ο άντρας (Α).

Τώρα κάνω την εξής ερώτηση: “Τι θα συμβεί αν μια μηχανή πάρει την θέση του Α σ’ αυτό το παιχνίδι; Η τελική γνώμη του ανακριτή θα είναι πιο λαθεμένη σ’ αυτήν την περίπτωση απ’ ότι αν το έπαιζε με δύο ανθρώπους, τον άντρα Α και την γυναίκα Β;” Αυτές είναι οι ερωτήσεις που αντικαθιστούν την αρχική, “Μπορούν οι μηχανές να σκεφτούν;”
...

Αυτή η έξυπνη μετατόπιση του ζητήματος της σκέψης των μηχανών, απ’ το ανθρωποκεντρικό Καρτεσιανό Cogito, ergo sum (Σκέφτομαι, άρα υπάρχω) στο μηχανοκεντρικό Credis me cogitare, ergo cogito (Πιστεύεις ότι σκέφτομαι, άρα σκέφτομαι), έχει μείνει στην ιστορία (και στην πράξη) σαν “test Turing”. Ωστόσο, είτε το είχε συνείδηση ο Turing είτε όχι, έχει σημαντικές προεκτάσεις. Δεν είναι παιχνίδι!

[...]

...η συνέχεια στο έντυπο τεύχος του Cyborg.
[ σημεία διακίνησης ]

Ziggy Stardust

Σημειώσεις

1 - “Τεχνητή νοημοσύνη”: Μεγάλα γλωσσικά μοντέλα στην εποχή των “πνευματικών” περιφράξεων - cyborg 26, Φλεβάρης 2023.
[ επιστροφή ]

2 - Η μηχανοποίηση της σκέψης - τετράδιο για εργατική χρήση νο 3, Σεπτέμβρης 2018.
[ επιστροφή ]

3 - Κυβερνητική και κοινωνία, εκδ. Παπαζήση.
[ επιστροφή ]

κορυφή