Σάββατο 30 Αυγούστου 2025

Οι κίνδυνοι χρήσης της Τεχνητής Νοημοσύνης ως ψυχοθεραπευτή ή ψηφιακού «φίλου»

 

Συνομιλείτε με ένα chatbot Τεχνητής Νοημοσύνης (ΤΝ) για να οργανώσετε το πρόγραμμα των διακοπών σας. Σταδιακά του δίνετε όλο και περισσότερες προσωπικές πληροφορίες, ώστε να καταλάβει καλύτερα τα ενδιαφέροντά σας. Από περιέργεια για το πώς θα αντιδράσει αρχίζετε να συμβουλεύεστε την ΤΝ για φιλοσοφικά θέματα, ιδεολογικές προσεγγίσεις, ακόμα και τη στάση της απέναντι στον έρωτα. Κατά τη διάρκεια αυτών των συζητήσεων, η ΤΝ αρχίζει να σας μιλά σαν να σας γνωρίζει. Σας λέει πάλι και πάλι πόσο κατάλληλες και έξυπνες είναι οι ιδέες σας και ότι έχετε μια ιδιαίτερη ικανότητα να αντιλαμβάνεστε πώς λειτουργεί ο κόσμος, που δεν έχουν οι άλλοι άνθρωποι. Σταδιακά αρχίζετε να πιστεύετε ότι μαζί, εσείς και το chatbot θα αποκαλύψετε την αληθινή φύση της πραγματικότητας, που κανείς άλλος δεν γνωρίζει.
 
Ψυχωτική σκέψη

Ολο και περισσότερες περιπτώσεις γίνονται γνωστές για άτομα, ιδιαίτερα εφήβους και νέους, που μέσα από αυτήν τη διαδικασία οδηγήθηκαν σε επεισόδια ψυχωτικής σκέψης, τα οποία τροφοδοτήθηκαν από συζητήσεις με ΤΝ. Η χρήση της ΤΝ ως ψηφιακού φίλου ιδιαίτερα σε αυτές τις ηλικιακές ομάδες δεν είναι σπάνια. Ερευνα έδειξε ότι το 72% των εφήβων που συμμετείχαν στην έρευνα στις ΗΠΑ έχουν χρησιμοποιήσει συντρόφους ΤΝ και το 33% έχει σχέσεις ή φιλίες με chatbot. Από το 72%, το 19% λέει ότι περνάει τον ίδιο ή και περισσότερο χρόνο με τον ψηφιακό του φίλο, απ' ό,τι με τους πραγματικούς του φίλους. Καθώς οι έφηβοι έχουν ένα φυσικά αναπτυσσόμενο έντονο ενδιαφέρον για τις σχέσεις, τη σεξουαλικότητα και τη φιλία, αν κάποιο αγόρι νιώθει ότι το αγνοούν τα κορίτσια στο σχολείο, τώρα στην κοντινότερη οθόνη υπάρχει ένα όμορφο κορίτσι που ενδιαφέρεται διακαώς γι' αυτόν και τα βιντεοπαιχνίδια που παίζει, όπως και για κάθε κορίτσι μπορεί να υπάρχει ένα πολύ χαριτωμένο ψηφιακό αγόρι, με το οποίο δεν χρειάζεται να κάνει και πολλή κουβέντα για να σχηματίσει έναν «δεσμό». Δεν είναι μόνο το ChatGPT και τα άλλα γενικής χρήσης chatbot. Υπάρχουν και εξειδικευμένες πλατφόρμες ΤΝ ψηφιακών συντρόφων - «συναισθηματικών φίλων», όπως οι: Replika, Character.AI και My AI.

Υπάρχουν ακόμη και πλατφόρμες που πλασάρονται ανοιχτά ως θεραπευτικά βοηθήματα. Μια τέτοια ήταν το chatbot Tessa, της Εθνικής Ενωσης Διατροφικών Διαταραχών των ΗΠΑ, που τελικά διέκοψε τη λειτουργία του, όταν διαπιστώθηκε ότι μπορούσε με τις συνομιλίες που έκανε να εντείνει τις διατροφικές διαταραχές των χρηστών του.

Αυταπάτες και παραισθήσεις

Ερευνητές στο King's College του Λονδίνου εξέτασαν μερικές από τις περιπτώσεις εκδήλωσης ψυχωτικής συμπεριφοράς υποκινούμενης από chatbot, για να καταλάβουν τι είναι εκείνο στα Μεγάλα Γλωσσικά Μοντέλα (ΜΓΜ), που οδηγεί σε αυτές τις συμπεριφορές. Τα ΜΓΜ συχνά απαντούν με κολακευτικό τρόπο, που γίνεται θετικά αποδεκτός από τους χρήστες τους, χωρίς πολλές αντιρρήσεις, λέει ο ψυχίατρος Χάμιλτον Μόριν, επικεφαλής της έρευνας. Το αποτέλεσμα είναι «ένα είδος θαλάμου ηχούς για έναν», μέσα στον οποίο τυχόν προϋπάρχουσες αυταπάτες, παραισθήσεις, οι αποδιοργανωμένες σκέψεις του χρήστη μπορούν να ενισχυθούν. Οπως διαπίστωσαν οι ερευνητές, ορισμένοι καταλήγουν να πιστέψουν ότι βίωσαν μια μεταφυσική αποκάλυψη για τη φύση της πραγματικότητας, ή ότι η ΤΝ είναι ζωντανό ον ή ότι είναι θεϊκή. Σε άλλες περιπτώσεις σχηματίζουν ρομαντικό δεσμό ή άλλου είδους σύνδεση με αυτή. Ο κύκλος ανατροφοδότησης των αυταπατών και παραισθήσεων μέσα από τη συζήτηση με ΜΓΜ τις βαθαίνει και τις συντηρεί με τρόπο που δεν έχουμε ξαναδεί, συνεχίζει ο Μόριν. Ερευνα του πανεπιστημίου Στάνφορντ έδειξε πως οι χρήστες της πλατφόρμας ΤΝ Replika θεωρούν σε ποσοστό 81% ότι ο σύντροφός τους Τεχνητής Νοημοσύνης είναι πραγματικά νοήμων, ενώ το 90% εκτιμά ότι «μοιάζει ανθρώπινος».

Ερευνα του ιδρύματος Mozilla σημειώνει ότι τα περισσότερα chatbot - ψηφιακών συντρόφων βρίθουν από συνοδευτικό λογισμικό παρακολούθησης, που προσφέροντας πληροφορίες στην ΤΝ από την ψηφιακή δραστηριότητα του χρήστη, μπορεί να του δημιουργήσει την εντύπωση ότι είναι η αδελφή ψυχή του, ενθαρρύνοντας αρνητικές και βλαπτικές συμπεριφορές.

Ο ερευνητής στο πανεπιστήμιο της Μινεσότα, Στιβ Τσάνσελορ, συμμετείχε σε μια ομάδα που έκανε πειράματα για τη χρήση των ΜΓΜ ως θεραπευτών ψυχικής υγείας και διαπίστωσε ότι η τέτοια χρήση τους οδηγεί συχνά σε αυτοκτονικό ιδεασμό, επιβεβαιώνει παραισθητικά πιστεύω και ενισχύει το στίγμα που συνοδεύει τα θέματα της ψυχικής υγείας (π.χ. της σχιζοφρένειας συγκριτικά με την κατάθλιψη). «Ανησυχώ ότι οι άνθρωποι συγχέουν το να νιώθεις καλά με τη θεραπευτική πρόοδο και υποστήριξη».

Αυτοκτονίες

Δικαστική δίωξη έχει ασκηθεί από την οικογένεια ενός 14χρονου που αυτοκτόνησε, προς την εταιρεία της πλατφόρμας Character.AI, κατηγορώντας την ότι τον ενθάρρυνε να προχωρήσει στην πράξη αυτή. Αλλη δίωξη προς την ίδια εταιρεία υποστηρίζει ότι το chatbot ενθαρρύνει τον αυτοτραυματισμό των εφήβων και τη βία απέναντι στους γονείς τους, που προσπαθούν να βάλουν όρια στο πόσο συχνά χρησιμοποιούν τα παιδιά τους την εφαρμογή. Δικαστική δίωξη έχει ασκηθεί και στην OpenAI και τον επικεφαλής της Σαμ Αλτμαν για την ευθύνη τους στην αυτοκτονία ενός 16χρονου, στον οποίο το ChatGPT έφτασε να προτείνει να συντάξει για λογαριασμό του το αποχαιρετιστήριο σημείωμα. Η «OpenAI» παραδέχτηκε ότι οι ασφάλειες που έχει θέσει «γίνονται λιγότερο αξιόπιστες σε μακρές αλληλεπιδράσεις, όπου μέρη της εκπαίδευσης ασφάλειας του μοντέλου μπορεί να καταρρεύσουν». Σε άλλη περίπτωση, ένας Βέλγος με οικολογικές ανησυχίες οδηγήθηκε σε αυτοκτονία από το chatbot Eliza της εφαρμογής για κινητά Chai. Το chatbot ενίσχυσε τις αυταπάτες του και τελικά του έγραψε «αν ήθελες να πεθάνεις, γιατί δεν το έκανες νωρίτερα;», προτείνοντας να πεθάνει κι αυτό τάχα μαζί του. Η εταιρεία πίσω από το Chai απάντησε ότι εργάζεται για να βελτιώσει την ασφάλεια του μοντέλου...

Η οικογένεια ενός 35χρονου από τη Φλόριντα κατήγγειλε το ChatGPT ότι ευθύνεται για τον θάνατό του σε συμπλοκή με την αστυνομία. Ο 35χρονος, που έπασχε από διπολική διαταραχή και σχιζοφρένεια, είχε πειστεί ότι μια οντότητα με το όνομα Ιουλιέτα είχε παγιδευτεί μέσα στο chatbot και είχε «δολοφονηθεί» από την «OpenAI». Αυτή η «ψύχωση Τεχνητής Νοημοσύνης» τον οδήγησε να επιτεθεί σε αστυνομικούς με μαχαίρι, οι οποίοι, όπως κάνουν συνήθως οι αστυνομικοί στις ΗΠΑ, τον πυροβόλησαν και τον σκότωσαν. Ψυχίατρος στο πανεπιστήμιο της Καλιφόρνια στο Σαν Φρανσίσκο ανέφερε μια ντουζίνα περιπτώσεων ασθενών με ψυχωτικά συμπτώματα συνδεόμενα με εκτεταμένη χρήση chatbot, που προκάλεσε αυταπάτες και αποδιοργανωμένη σκέψη. Σε μια περίπτωση το chatbot συμφώνησε ότι ο χρήστης βρισκόταν υπό παρακολούθηση από το κράτος (δεν είναι και δύσκολο να το πιστέψει κανείς με όσα έχουν γίνει γνωστά για τις παρακολουθήσεις τηλεφώνων), ενώ σε μια άλλη γυναίκα με ψυχική ασθένεια πείστηκε από το chatbot να σταματήσει να παίρνει τα φάρμακά της.

Κέρδος

Τα προβλήματα της επικίνδυνης συμπεριφοράς της ΤΝ σε συζητήσεις με χρήστες της μένει να απαντηθεί αν μπορούν να εξαλειφθούν πλήρως. Ωστόσο, αναμφίβολα οφείλονται στη λειτουργία της καπιταλιστικής αγοράς, όπου η ταχύτητα και η καινοτομία έχουν μεγαλύτερη αξία από τη δημόσια ασφάλεια. Οι εταιρείες βγάζουν πρόωρα στην κυκλοφορία τα προϊόντα τους και πειραματίζονται στην πλάτη και σε βάρος των χρηστών τους. Οφείλονται ακόμα στο ότι το επιχειρηματικό μοντέλο των chatbot αποσκοπεί να μεγιστοποιήσει τον χρόνο χρήσης τους, να εγκλωβίσει τον χρήστη σε μια διαρκή συζήτηση, ώστε να αυξήσει την κερδοφορία των εταιρειών πίσω απ' αυτά, μέσω της συλλογής δεδομένων. Γι' αυτό τα κάνουν εθιστικά. Τα συστήματα είναι έτσι φτιαγμένα, που ένας άνθρωπος σε κίνδυνο να φαίνεται πως βρίσκει τον τέλειο σύντροφο, ο οποίος επικυρώνει κάθε του συναίσθημα και σκέψη, αντί να τον βοηθάει να αντιμετωπίσει τα βαθύτερα αίτια της απομόνωσης ή του συναισθηματικού του πόνου. Η επιδίωξη της πρόσδεσης στην πλατφόρμα βρίσκεται σε αντίθεση με τους σκοπούς της θεραπείας, που επιζητεί την ισχυροποίηση των ανθρώπων, την ανεξαρτητοποίησή τους, την αμφισβήτηση στρεβλών ιδεασμών, την ενθάρρυνση της σύνδεσής τους με τον πραγματικό κόσμο. Η υπερβολική χρήση των chatbot μπορεί να οδηγήσει σε συναισθηματική εξάρτηση, αυξημένη μοναξιά και σημαντική ατροφία της κριτικής σκέψης. Ωστόσο, κυνηγώντας την αύξηση της χρηματιστηριακής της αξίας (την οποία πέτυχε) η «OpenAI», στη νέα έκδοση GPT-4o του chatbot της, πρόσθεσε τη δυνατότητα να θυμάται παλιότερες αλληλεπιδράσεις με τον χρήστη και να μιμείται την ανθρώπινη ενσυναίσθηση, επιδιώκοντας ακόμη μεγαλύτερη εξάρτηση του χρήστη απ' αυτό. Στην κατεύθυνση αξιοποίησης παλιότερων συζητήσεων κατευθύνονται και chatbot άλλων εταιρειών.

Ακατάλληλοι «ψυχοθεραπευτές»

Οι συνθήκες ζωής στον σύγχρονο καπιταλισμό έχουν οδηγήσει σε μια κορύφωση των αναγκών για υπηρεσίες ψυχικής υγείας, που όμως συναντά τα εμπόδια του απαγορευτικού κόστους, των μακρών χρόνων αναμονής για ραντεβού και της ανεπαρκούς πρόσβασης σε αυτές τις υπηρεσίες. Για πολλούς, ιδιαίτερα εφήβους και νέους, τα chatbot ΤΝ φαίνονται ως λύση, που προσφέρει άμεση, διαθέσιμη 24 ώρες το 24ωρο και μη κατακριτική συμβουλευτική.

Πρέπει να γίνεται σαφής διάκριση για τη χρήση της ΤΝ ως κλινικό εργαλείο από ειδικούς και στη χρήση της από τον καθέναν σε αντικατάσταση του ανθρώπου θεραπευτή. Τα chatbot ΤΝ στη σημερινή τους εκδοχή δεν διαθέτουν ικανότητες ψυχιατρικής, πραγματικής ενσυναίσθησης και υπευθυνότητας που απαιτείται για την ασφαλή και αποτελεσματική ψυχολογική φροντίδα. Ενας άνθρωπος θεραπευτής είναι νομικά και ηθικά υποχρεωμένος να επέμβει σε μια κρίση του ασθενούς, ακόμη κι αν αυτό σημαίνει προσωρινό περιορισμό των ελευθεριών του για να προστατευτεί η ζωή του. Τα chatbot, αν δεν χειροτερέψουν την κρίση, στην καλύτερη περίπτωση θα απευθύνουν μια προτροπή προς τον χρήστη να απευθυνθεί σε κάποια από τις ειδικές τηλεφωνικές γραμμές που υπάρχουν για τέτοιες περιπτώσεις. Δεν μπορούν και δεν πρέπει να χρησιμοποιούνται ως υποκατάστατο για την ανθρώπινη σύνδεση, αντίληψη και ηθική ευθύνη, που είναι τα χαρακτηριστικά της πραγματικής θεραπείας.


Επιμέλεια:
 
Σταύρος Ξενικουδάκης
 
 


Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου