Όσο πιο προηγμένη γίνεται η τεχνητή νοημοσύνη, τόσο περισσότερο «παραισθάνεται» και παρέχει λανθασμένες και ανακριβείς πληροφορίες, λένε οι επιστήμονες. Έρευνα που διεξήγαγε η OpenAI διαπίστωσε ότι τα πιο πρόσφατα και πιο ισχυρά μοντέλα συλλογισμού της, «o3 »και «o4-mini», εμφάνισαν παραισθήσεις σε ποσοστό 33% και 48% αντίστοιχα, όταν δοκιμάστηκαν με το benchmark PersonQA της OpenAI.
Αυτό είναι περισσότερο από το διπλάσιο ποσοστό σε σχέση με το παλαιότερο μοντέλο «o1». Ενώ το «o3» παρέχει πιο ακριβείς πληροφορίες από τον προκάτοχό του, φαίνεται ότι έχει το κόστος περισσότερων ανακριβών παραισθήσεων.
Αυτό εγείρει ανησυχία σχετικά με την ακρίβεια και την αξιοπιστία των μεγάλων γλωσσικών μοντέλων (LLM) όπως τα chatbots τεχνητής νοημοσύνης, δήλωσε η Eleanor Watson, μέλος του Ινστιτούτου Ηλεκτρολόγων και Ηλεκτρονικών Μηχανικών (IEEE) και μηχανικός δεοντολογίας τεχνητής νοημοσύνης στο Πανεπιστήμιο Singularity.
«Όταν ένα σύστημα εξάγει κατασκευασμένες πληροφορίες -όπως επινοημένα γεγονότα ή παραπομπές- με την ίδια ροή και συνοχή που χρησιμοποιεί για ακριβές περιεχόμενο, υπάρχει ο κίνδυνος να παραπλανήσει τους χρήστες με ανεπαίσθητους και επακόλουθους τρόπους», δήλωσε η Watson στο Live Science.
Το ζήτημα των ψευδαισθήσεων υπογραμμίζει την ανάγκη προσεκτικής αξιολόγησης και εποπτείας των πληροφοριών που παράγουν τα συστήματα τεχνητής νοημοσύνης κατά τη χρήση LLM και μοντέλων συλλογισμού, λένε οι ειδικοί.
Τα μοντέλα συλλογισμού σκέφτονται σαν άνθρωποι
Η ουσία ενός μοντέλου συλλογισμού είναι ότι μπορεί να χειριστεί πολύπλοκες εργασίες ουσιαστικά αναλύοντάς τες σε επιμέρους στοιχεία και βρίσκοντας λύσεις για την αντιμετώπισή τους. Αντί να επιδιώκουν να αποκλείουν απαντήσεις με βάση τη στατιστική πιθανότητα, τα μοντέλα συλλογισμού καταλήγουν σε στρατηγικές για την επίλυση ενός προβλήματος, όπως ακριβώς σκέφτονται οι άνθρωποι.
Προκειμένου να αναπτύξει δημιουργικές και ενδεχομένως καινοτόμες λύσεις σε προβλήματα, η Τεχνητή Νοημοσύνη χρειάζεται να έχει παραισθήσεις – διαφορετικά περιορίζεται από άκαμπτα δεδομένα που απορροφά το LLM της.«Είναι σημαντικό να σημειωθεί ότι η παραίσθηση είναι ένα χαρακτηριστικό, όχι ένα σφάλμα, της Τεχνητής Νοημοσύνης», δήλωσε στο Live Science ο Sohrob Kazerounian, ερευνητής Τεχνητής Νοημοσύνης στην Vectra AI.
«Για να παραφράσω έναν συνάδελφό μου, “Όλα όσα εξάγει ένας LLM είναι παραίσθηση. Απλώς μερικές από αυτές τις παραισθήσεις είναι αληθινές”. Εάν μια Τεχνητή Νοημοσύνη παρήγαγε μόνο αυτούσια δεδομένα που είχε δει κατά τη διάρκεια της εκπαίδευσής της, όλη η Τεχνητή Νοημοσύνη θα μειωνόταν σε ένα τεράστιο πρόβλημα αναζήτησης».«Ενώ τα πιο προηγμένα μοντέλα μπορεί να μειώσουν τη συχνότητα των προφανών πραγματικών λαθών, το ζήτημα επιμένει σε πιο ανεπαίσθητες μορφές.
Με την πάροδο του χρόνου, η μυθοπλασία διαβρώνει την αντίληψη των συστημάτων Τεχνητής Νοημοσύνης ως αξιόπιστων μέσων και μπορεί να προκαλέσει υλικές ζημιές όταν γίνεται χρήση μη επαληθευμένου περιεχομένου». Αυτό το πρόβλημα φαίνεται να επιδεινώνεται καθώς η Τεχνητή Νοημοσύνη εξελίσσεται.Η κατάσταση περιπλέκεται περαιτέρω επειδή μπορεί να είναι πολύ δύσκολο να εξακριβωθεί πώς οι LLM καταλήγουν στις απαντήσεις τους. Θα μπορούσε να γίνει εδώ ένας παραλληλισμός με το πώς ακόμα δεν γνωρίζουμε πραγματικά, σε βάθος, πώς λειτουργεί ένας ανθρώπινος εγκέφαλος.
Μπορούμε να εμπιστευτουμε τις απαντήσεις της τεχνητής νοημοσύνης ;
Σε ένα πρόσφατο δοκίμιό του, ο Dario Amodei, Διευθύνων Σύμβουλος της εταιρείας τεχνητής νοημοσύνης Anthropic, τόνισε την έλλειψη κατανόησης στον τρόπο με τον οποίο οι τεχνητές νοημοσύνης καταλήγουν σε απαντήσεις και πληροφορίες.
«Όταν ένα γενετικό σύστημα τεχνητής νοημοσύνης κάνει κάτι, όπως να συνοψίσει ένα οικονομικό έγγραφο, δεν έχουμε ιδέα, σε συγκεκριμένο ή ακριβές επίπεδο, γιατί κάνει τις επιλογές που κάνει – γιατί επιλέγει συγκεκριμένες λέξεις αντί για άλλες ή γιατί περιστασιακά κάνει λάθος, παρόλο που συνήθως είναι ακριβές», έγραψε.
Τα προβλήματα που προκαλούνται από την τεχνητή νοημοσύνη που δημιουργεί ψευδαισθήσεις και ανακριβείς πληροφορίες είναι ήδη πολύ πραγματικά, σημείωσε ο Kazerounian.
«Δεν υπάρχει καθολικός, επαληθεύσιμος τρόπος για να πειστεί ένας LLM να απαντήσει σωστά σε ερωτήσεις που του τίθενται σχετικά με κάποιο σύνολο δεδομένων στο οποίο έχει πρόσβαση», είπε. «Τα παραδείγματα ανύπαρκτων παραισθησιογόνων αναφορών, chatbot που απευθύνονται σε πελάτες και αποτελούν την πολιτική της εταιρείας και ούτω καθεξής, είναι πλέον πολύ συνηθισμένα».
Οι ψευδαισθήσεις και ο ανθρώπινος εγκέφαλος
«Τέλος, τα συστήματα μπορούν να σχεδιαστούν ώστε να αναγνωρίζουν τη δική τους αβεβαιότητα. Αντί να καταφεύγουν σε σίγουρες απαντήσεις, τα μοντέλα μπορούν να διδαχθούν να επισημαίνουν πότε δεν είναι σίγουρα ή να ανατρέπουν την ανθρώπινη κρίση όταν είναι απαραίτητο», πρόσθεσε η Watson. «Ενώ αυτές οι στρατηγικές δεν εξαλείφουν εντελώς τον κίνδυνο μυθοπλασίας, προσφέρουν μια πρακτική πορεία προς τα εμπρός για να γίνουν τα αποτελέσματα της Τεχνητής Νοημοσύνης πιο αξιόπιστα».
Δεδομένου ότι οι ψευδαισθήσεις της τεχνητής νοημοσύνης μπορεί να είναι σχεδόν αδύνατο να εξαλειφθούν, ειδικά σε προηγμένα μοντέλα, ο Kazerounian κατέληξε στο συμπέρασμα ότι τελικά οι πληροφορίες που παράγουν οι LLM θα πρέπει να αντιμετωπίζονται με «τον ίδιο σκεπτικισμό που επιφυλάσσουμε για τους ανθρώπινους ομολόγους μας».