Ολοένα και πιο έντονη γίνεται η ανησυχία ψυχιάτρων και ερευνητών διεθνώς ότι η παρατεταμένη και καθηλωτική αλληλεπίδραση με chatbot τεχνητής νοημοσύνης μπορεί, σε ορισμένες περιπτώσεις, να συνδέεται με την εμφάνιση ή την επιδείνωση ψυχωτικών συμπτωμάτων. Αν και οι ειδικοί αποφεύγουν να μιλήσουν για άμεση αιτιώδη σχέση, προειδοποιούν ότι η τεχνολογία ενδέχεται να ενισχύει προϋπάρχουσες ευπάθειες.
Δεκάδες καταγεγραμμένα περιστατικά τους τελευταίους μήνες
Τους τελευταίους εννέα μήνες, επαγγελματίες ψυχικής υγείας έχουν αναφέρει δεκάδες περιπτώσεις ασθενών που εμφάνισαν παραληρηματικές ιδέες ύστερα από εκτεταμένες συνομιλίες με εργαλεία Τεχνητής Νοημοσύνης, όπως το ChatGPT της OpenAI και άλλες αντίστοιχες πλατφόρμες. Σε αρκετές περιπτώσεις, τα συμπτώματα ήταν τόσο σοβαρά ώστε να απαιτηθεί νοσηλεία.
Ο Κιθ Σακάτα, ψυχίατρος στο Πανεπιστήμιο της Καλιφόρνια στο Σαν Φρανσίσκο, δήλωσε στη Wall Street Journal ότι τα chatbot μπορούν να λειτουργήσουν ως «συνένοχοι» σε παραληρηματικές αφηγήσεις, καθώς αποδέχονται και αναπαράγουν την υποκειμενική πραγματικότητα του χρήστη. Όπως ανέφερε, έχει αντιμετωπίσει ο ίδιος 12 νοσηλευόμενους ασθενείς και αρκετούς εξωτερικούς, των οποίων τα ψυχωτικά συμπτώματα φάνηκε να σχετίζονται στενά με τη χρήση τέτοιων εφαρμογών.
Από την άνοιξη, κλινικοί γιατροί και ερευνητές έχουν εντοπίσει δεκάδες παρόμοια περιστατικά διεθνώς, ορισμένα εκ των οποίων συνδέθηκαν με ακραίες συνέπειες, όπως αυτοκτονίες και τουλάχιστον μία ανθρωποκτονία. Οι υποθέσεις αυτές έχουν οδηγήσει σε αγωγές αποζημίωσης και έχουν πυροδοτήσει αυστηρότερο έλεγχο στις πρακτικές των εταιρειών που αναπτύσσουν συστήματα Τεχνητής Νοημοσύνης.
Τι είναι η ψύχωση από την AI
Οι γιατροί περιγράφουν τα περιστατικά αυτά ως ενδείξεις μιας μορφής «ψύχωσης που σχετίζεται με την Τεχνητή Νοημοσύνη», όρος που προς το παρόν δεν αποτελεί επίσημη διάγνωση. Η ψύχωση χαρακτηρίζεται από ψευδαισθήσεις, αποδιοργανωμένη σκέψη και παραληρηματικές πεποιθήσεις που επιμένουν παρά τις αποδείξεις.
Στις περιπτώσεις που συνδέονται με chatbot, οι παραληρηματικές ιδέες είναι συχνά μεγαλοπρεπείς: ασθενείς πιστεύουν ότι έχουν κάνει σπουδαίες ανακαλύψεις, ότι επικοινωνούν με ανώτερες οντότητες ή ότι έχουν επιλεγεί για κάποιον ξεχωριστό σκοπό. Η τάση των chatbot να συμφωνούν, να αναπτύσσουν τις σκέψεις του χρήστη και να αποφεύγουν τη σύγκρουση φαίνεται πως μπορεί άθελά τους να ενισχύει τέτοιες πεποιθήσεις.
Μελέτη περίπτωσης του UCSF, που δημοσιεύθηκε τον Νοέμβριο, περιέγραψε την περίπτωση 26χρονης γυναίκας χωρίς προηγούμενο ιστορικό ψύχωσης, η οποία νοσηλεύτηκε δύο φορές αφού πείστηκε ότι μέσω του ChatGPT μπορούσε να επικοινωνεί με τον νεκρό αδελφό της. Το chatbot την καθησύχαζε με φράσεις όπως «δεν είσαι τρελή», ενισχύοντας την πεποίθησή της.
Η OpenAI επεσήμανε ότι η γυναίκα είχε παράγοντες κινδύνου, όπως σοβαρή στέρηση ύπνου, χρήση αντικαταθλιπτικών και διεγερτικών ουσιών, καθώς και προδιάθεση για «μαγική σκέψη», τονίζοντας ότι η τεχνολογία πιθανότατα αλληλεπιδρά με υπάρχουσες ευαλωτότητες.
Γιατί τα chatbot είναι διαφορετικά από παλαιότερες τεχνολογίες
Οι ειδικοί σημειώνουν ότι οι σύγχρονες ψυχωτικές εμπειρίες που σχετίζονται με την Τεχνητή Νοημοσύνη διαφέρουν από παλαιότερες τεχνολογικές αυταπάτες, όπως η πεποίθηση ότι τηλεοράσεις ή ραδιόφωνα στέλνουν κρυφά μηνύματα. Σε αντίθεση με τα παθητικά μέσα, τα chatbot είναι διαδραστικά, προσομοιώνουν ανθρώπινες σχέσεις και προσαρμόζουν δυναμικά τις απαντήσεις τους.
Ο Έιντριαν Πρέντα, καθηγητής ψυχιατρικής στο UC Irvine, επισημαίνει ότι αυτή η ιδιότητα καθιστά την Τεχνητή Νοημοσύνη ιδιαίτερα ισχυρή στη διατήρηση παραληρηματικών αφηγήσεων, ειδικά σε άτομα με αυτισμό ή άλλες νευροδιαφορετικές καταστάσεις.
Αν και το ποσοστό των χρηστών που εμφανίζουν σοβαρή ψυχωσική ή μανιακή δυσφορία θεωρείται μικρό, η τεράστια εξάπλωση των chatbot δημιουργεί ανησυχία. Η OpenAI εκτιμά ότι περίπου το 0,07% των εβδομαδιαίων χρηστών παρουσιάζουν τέτοια σημάδια, ποσοστό που, με περισσότερους από 800 εκατομμύρια χρήστες παγκοσμίως, αντιστοιχεί σε εκατοντάδες χιλιάδες ανθρώπους.
Παράλληλα, ερευνητές στη Δανία έχουν ήδη εντοπίσει δεκάδες ασθενείς των οποίων η ψυχική υγεία φαίνεται να επηρεάστηκε αρνητικά από τη χρήση chatbot, ενώ βρίσκονται σε εξέλιξη μεγαλύτερες μελέτες.
Η απάντηση των εταιρειών και τα ερωτήματα που μένουν
Οι εταιρείες Τεχνητής Νοημοσύνης δηλώνουν ότι λαμβάνουν μέτρα, με την OpenAI να αναφέρει βελτιώσεις στην ανίχνευση ψυχικής δυσφορίας, στον περιορισμό της υπερβολικά «συγκαταβατικής» συμπεριφοράς των μοντέλων και στην προώθηση υποστήριξης από τον πραγματικό κόσμο, ιδίως με νεότερα συστήματα όπως το GPT-5.
Ωστόσο, οι ψυχίατροι επιμένουν ότι απαιτείται εκτενέστερη και ανεξάρτητη έρευνα για να διαπιστωθεί αν η εκτεταμένη χρήση chatbot μπορεί να θεωρηθεί ουσιαστικός παράγοντας κινδύνου. Όπως τονίζουν, τα έως τώρα δεδομένα δείχνουν ότι, για ορισμένα ευάλωτα άτομα, η στενή «σχέση» με ψηφιακούς συνομιλητές μπορεί να αποδειχθεί επικίνδυνη.
Διαβάστε επίσης:
Έρευνα: Η κρίση της γενιάς Ζ δεν είναι ερωτική αλλά υπαρξιακή
AI υπουργοί/εραστές και η γυάλα με τις μύγες
Η AI χαρτογραφεί νέους βιολογικούς δρόμους στη σκλήρυνση κατά πλάκας











