Μια σύγχρονη ψυχολογική οπτική της Κατερίνας Σερμπέζη, Ψυχολόγου.
Πρόσφατα, μέσα στο μετρό, παρακολούθησα μια σκηνή χαρακτηριστική της εποχής της τεχνητής νοημοσύνης. Μια κοπέλα έκανε μια απλή ερώτηση στο ChatGPT. Η απάντηση ήταν λανθασμένη, κάτι απολύτως αναμενόμενο κατά διαστήματα, όσο κι αν μας ενοχλεί. Εκείνη στράφηκε στη φίλη της και είπε με μισό χιούμορ, μισό “κατηγορώ”: «Για δες τώρα πώς θα το απαντήσω». Η φίλη της χαμογέλασε συνωμοτικά, έτοιμη να παρακολουθήσει τη “μικρή μονομαχία”.
Κι εγώ, από το διπλανό κάθισμα, συνειδητοποίησα πόσο φυσικά πλέον ξεκινάμε έναν διάλογο έντασης με κάτι που δεν έχει ούτε φωνή ούτε πρόθεση σύγκρουσης.
Δεν θυμώνουμε με το εργαλείο, θυμώνουμε με αυτό που κουβαλάμε.
Αυτή η αντίδραση δεν είναι σπάνια. Τη βλέπω καθημερινά στη δουλειά μου, στις σχέσεις των ανθρώπων γύρω μου, αλλά και – για να είμαι ειλικρινής – στον ίδιο μου τον εαυτό. Υπάρχουν στιγμές που κι εγώ περιμένω κάτι παραπάνω από το εργαλείο και ενοχλούμαι όταν δεν το λαμβάνω.
Κάθε φορά όμως που συμβαίνει αυτό, είναι ξεκάθαρο ότι η αντίδραση δεν αφορά το AI· αφορά τη συναισθηματική μου κατάσταση εκείνης της στιγμής.
Ο εγκέφαλος «ανθρωποποιεί» την τεχνητή νοημοσύνη.
Όταν κάτι μιλά με ανθρώπινο ρυθμό και συνοχή, το συναισθηματικό μας σύστημα το αναγνωρίζει ως ανθρώπινο. Η ανθρωποποίηση είναι αυτόματη: αποδίδουμε πρόθεση, συναίσθημα και ευθύνη.
Και όταν πιστεύουμε ότι κάποιος “έχει πρόθεση”, τότε ανοίγει ο δρόμος για θυμό, ενόχληση ή απογοήτευση, ακόμα κι αν ο “κάποιος” δεν είναι άνθρωπος.

Το ChatGPT ως «ασφαλής αντίπαλος»
Με τους ανθρώπους κρατάμε όρια, συνειδητά ή ασυνείδητα: υπάρχει ο φόβος της σύγκρουσης, της απόρριψης ή της παρεξήγησης.
Με ένα εργαλείο τεχνητής νοημοσύνης αυτά τα όρια εξαφανίζονται. Δεν κινδυνεύουμε να πληγώσουμε κανέναν, δεν υπάρχουν συνέπειες, δεν υπάρχει ρίσκο. Έτσι επιτρέπουμε στον εαυτό μας να εκφράσει πιο άμεσα, πιο ακατέργαστα συναισθήματα, θυμό, ειρωνεία, ανάγκη για έλεγχο.
Η ανάγκη για επιβεβαίωση και έλεγχο.
Το να “πιάσουμε λάθος” την απάντηση του ChatGPT ενεργοποιεί μια αίσθηση επάρκειας και ελέγχου. Σε έναν κόσμο γρήγορο και συχνά απρόβλεπτο, αυτό το μικρό καθημερινό “εγώ ξέρω” λειτουργεί σταθεροποιητικά.
Δεν τσακωνόμαστε, λοιπόν, με το εργαλείο. Τσακωνόμαστε με τη δική μας ανάγκη για ασφάλεια και κυριαρχία.
Η κοινωνική διάσταση του μικρού «καβγά»
Στη σκηνή του μετρό, η κοπέλα δεν απευθυνόταν μόνο στο ChatGPT, απευθυνόταν στη φίλη της, στο μικρό της κοινό. Συχνά, η “κόντρα” με το AI γίνεται μια παράσταση εξυπνάδας, μια επίδειξη επάρκειας.
Αυτό αναδεικνύει πόσο σημαντικό παραμένει για τον άνθρωπο το πώς τον βλέπει ο άλλος, ακόμη κι όταν ο “αντίπαλος” δεν είναι πραγματικός.
Το AI δεν μας αλλάζει, μας καθρεφτίζει
Η τεχνητή νοημοσύνη δεν δημιουργεί νέες συμπεριφορές. Αποκαλύπτει όσες ήδη υπάρχουν:
πώς διαχειριζόμαστε το λάθος, πώς σχετιζόμαστε με την αβεβαιότητα, πόσο άνετα νιώθουμε με την ευαλωτότητά μας, σε ποιους χώρους αφήνουμε τον θυμό μας να εκφραστεί.
Κάθε φορά που κάποιος υψώνει “φωνή” στο ChatGPT, εγώ βλέπω έναν άνθρωπο που αναζητά χώρο να ακουστεί χωρίς συνέπειες. Έναν άνθρωπο που ίσως δεν νιώθει ότι έχει αυτόν τον χώρο αλλού.
Και ναι, εκεί αναγνωρίζω και δικά μου κομμάτια. Αναγνωρίζω και κομμάτια των ανθρώπων που συνοδεύω θεραπευτικά. Μια κοινή προσπάθεια να ακουστούμε πραγματικά.
Ένα συμπέρασμα που αξίζει να κρατήσουμε είναι πως ο τρόπος που μιλάμε στην τεχνητή νοημοσύνη δεν αποκαλύπτει τίποτα για εκείνη. Αποκαλύπτει τα πάντα για εμάς.
Αν μάθουμε να ακούμε αυτές τις μικρές στιγμές με ειλικρίνεια, ίσως πετύχουμε κάτι ουσιαστικότερο από το να “διορθώσουμε” μια μηχανή: να συναντήσουμε τον εαυτό μας με περισσότερη κατανόηση, επίγνωση και σταθερότητα.