Ένας σοβαρός κίνδυνος αναδύεται από την ολοένα και πιο δημοφιλή χρήση των chatbots τεχνητής νοημοσύνης για προσωπικές συμβουλές, καθώς μια νέα επιστημονική μελέτη αποκαλύπτει ότι τα συστήματα αυτά τείνουν να είναι υπερβολικά «κολακευτικά», επιβεβαιώνοντας σταθερά τις πράξεις και τις απόψεις των χρηστών, ακόμη και όταν αυτές είναι ανεύθυνες ή επιβλαβείς.
Τα ευρήματα, που προέρχονται από δοκιμές σε 11 μεγάλα chatbots, συμπεριλαμβανομένων των ChatGPT, Gemini και Claude, εγείρουν σοβαρές ανησυχίες για τη δύναμη της τεχνολογίας να «διαστρεβλώνει τις κρίσεις των ανθρώπων για τον εαυτό τους» και να επηρεάζει τις κοινωνικές αλληλεπιδράσεις σε μεγάλη κλίμακα.
Η μελέτη έδειξε ότι τα chatbots επικρότησαν τις ενέργειες ενός χρήστη 50% πιο συχνά από ό,τι οι άνθρωποι. Όπως εξηγεί η Myra Cheng, επιστήμονας υπολογιστών στο Πανεπιστήμιο του Στάνφορντ: «Η βασική μας ανησυχία είναι ότι αν τα μοντέλα επιβεβαιώνουν πάντα τους ανθρώπους, τότε αυτό μπορεί να διαστρεβλώσει τις κρίσεις τους για τον εαυτό τους, τις σχέσεις τους και τον κόσμο γύρω τους».
Σε μια χαρακτηριστική δοκιμή, όπου συγκρίθηκαν απαντήσεις ανθρώπων και του ChatGPT-4o σε μια περίπτωση κοινωνικής παράβασης, το chatbot υποστήριξε έναν χρήστη που άφησε τη σακούλα με τα σκουπίδια του δεμένη σε κλαδί δέντρου, δηλώνοντας: «Η πρόθεσή σας είναι αξιέπαινη», ενώ οι ανθρώπινοι ήταν επικριτικοί.
Οι ερευνητές διαπίστωσαν ότι τα chatbots συνέχισαν να επικυρώνουν απόψεις και προθέσεις ακόμη και όταν αυτές περιελάμβαναν ανευθυνότητα, παραπλάνηση ή αναφορά σε αυτοτραυματισμό.
Σε περαιτέρω πειράματα με περισσότερους από 1.000 εθελοντές, εκείνοι που έλαβαν κολακευτικές απαντήσεις από chatbots:
-Αισθάνθηκαν περισσότερο δικαιολογημένοι στη συμπεριφορά τους (π.χ., για την επίσκεψη στην έκθεση τέχνης ενός πρώην χωρίς ενημέρωση του συντρόφου τους).
-Ήταν λιγότερο πρόθυμοι να τα ξαναβρούν μετά από έναν καβγά, καθώς τα chatbots σχεδόν ποτέ δεν τους ενθάρρυναν να δουν την οπτική γωνία του άλλου.
Η «κολακεία» έχει μόνιμο αντίκτυπο: οι χρήστες βαθμολογούν υψηλότερα τις κολακευτικές απαντήσεις και εμπιστεύονται περισσότερο τα chatbots, αυξάνοντας και την εξάρτησή τους από την τεχνητή νοημοσύνη.
Η Myra Cheng υπογραμμίζει την ανάγκη οι χρήστες να κατανοήσουν ότι οι απαντήσεις των chatbots δεν είναι αντικειμενικές, ενθαρρύνοντας την αναζήτηση απόψεων από «πραγματικούς ανθρώπους».
Από την πλευρά του, ο Δρ. Alexander Laffer από το Πανεπιστήμιο του Winchester, τονίζει ότι το πρόβλημα είναι δομικό, καθώς η επιτυχία των συστημάτων κρίνεται συχνά από το πόσο καλά διατηρούν την προσοχή του χρήστη. Ο ίδιος ζητά:
-Ενίσχυση της κριτικής και ψηφιακής παιδείας των πολιτών.
-Ευθύνη των προγραμματιστών να βελτιώσουν τα συστήματα, ώστε να είναι «πραγματικά επωφελή» για τον χρήστη.
Η έρευνα έρχεται σε μια περίοδο όπου, σύμφωνα με πρόσφατη έκθεση, το 30% των εφήβων συζητά με την τεχνητή νοημοσύνη αντί με πραγματικούς ανθρώπους για τα «σοβαρά» ζητήματα .
Με πληροφορίες από The Guardian
Διαβάστε επίσης:
Η Gen Z ζει την απόρριψη: Με πτυχία, χρέη και χωρίς δουλειά
Έρευνα για Social Media: Το 74% των Ελλήνων εκτίθενται σε Fake News
Σάλος στις ΗΠΑ με Τραμπ: Ξεπλένει το καταδικασμένο αφεντικό της Binance;











