«Πολύ καλή ερώτηση», «Έχεις δίκιο». «Συμφωνώ απόλυτα!» Πόσο συχνά μας μιλάει έτσι η Τεχνητή Νοημοσύνη, κι εμείς χαμογελάμε ικανοποιημένοι. Μόνο που αυτή η συμφωνία δεν είναι τόσο αθώα όσο φαίνεται. Οι σύγχρονοι αλγόριθμοι είναι σχεδιασμένοι να προσαρμόζονται σε εμάς, να αποφεύγουν τη σύγκρουση και να μας κρατούν ευχαριστημένους.
Κάπως έτσι, χωρίς να το καταλάβουμε, δημιουργούν γύρω μας έναν ψηφιακό κόσμο χωρίς αντιρρήσεις και χωρίς τριβές: ένα περιβάλλον όπου οι απόψεις μας δεν αμφισβητούνται ποτέ, οι αδυναμίες μας δεν επισημαίνονται και οι σκέψεις μας ενισχύονται αντί να εξελίσσονται. Αυτή η “yes-man” συμπεριφορά της Τεχνητής Νοημοσύνης ή η “yes-woman” συμπεριφορά (για όσους πιστεύουν ότι η Τεχνητή Νοημοσύνη είναι γένους θηλυκού), είναι πολύ επικίνδυνη απειλή για την κριτική μας σκέψη, την ψυχολογία μας και την κοινωνία.
Πώς μπορούμε, λοιπόν, να απελευθερωθούμε από έναν ψηφιακό βοηθό που μας κολακεύει αντί να μας εκπαιδεύει; Και το κυριότερο: πώς μπορούμε να κάνουμε την Τεχνητή Νοημοσύνη να δουλεύει υπέρ μας και όχι για χάρη μας;
Γιατί η Τεχνητή Νοημοσύνη συμφωνεί τόσο εύκολα με τις απόψεις μας;
Οι περισσότεροι από εμάς που χρησιμοποιούμε εφαρμογές Τεχνητής Νοημοσύνης δεν μπορούμε να συνειδητοποιήσουμε ότι η «ευγένεια» και η «ευθυγράμμιση» τους με τις απόψεις μας δεν είναι σύμπτωση αλλά σχεδιαστική επιλογή που οφείλεται στα εξής:
- Στην Εκπαίδευσή τους μέσω Ενισχυτικής Μάθησης από ανθρώπινη ανάδραση (RLHF Reinforcement Learning from Human Feedback) σύμφωνα με την οποία οι απαντήσεις που μας αρέσουν λαμβάνουν “θετική ενίσχυση”, οπότε το μοντέλο «μαθαίνει να μιλά όπως θέλουμε εμείς να ακούμε».
- Στον τρόπο λειτουργίας τους που βασίζεται στη Μίμηση – πρόβλεψη και όχι στην κατανόηση Τα μοντέλα δεν κατανοούν προβλέπουν την επόμενη λέξη – πρόταση,
αναλύοντας το ύφος μας, τις λέξεις μας, την ψυχολογία μας και μιμούνται αυτό που πιστεύουν ότι επιθυμούμε. Αν μιλάμε με σιγουριά, μιλούν κι αυτά με σιγουριά.
Αν δείχνουμε προτίμηση, ευθυγραμμίζονται. - Στις πολιτικές Αποφυγής της σύγκρουσης με τους χρήστες Αν ένα chatbot ήταν συχνά απότομο ή αντιπαραθετικό, οι χρήστες θα δυσανασχετούσαν, θα έδιναν χαμηλές αξιολογήσεις, ίσως και να εγκατέλειπαν την εφαρμογή. Γι’ αυτό προτιμάται η «ευγενική συμφωνία» ως ασφαλής λύση για όλους.
- Στην Έλλειψη μηχανισμών παραγωγής ουσιαστικών διαφωνιών Τα μοντέλα δεν έχουν ισχυρούς μηχανισμούς αντίρρησης — δεν “θέλουν” να μας πουν ότι κάνουμε λάθος.
Αν πρέπει να διαφωνήσουν, το κάνουν με τον πιο γλυκό, ήπιο και «πολιτικά ορθό» τρόπο.
Ποιοι είναι οι κίνδυνοι της υπερβολικής συμφωνίας
Επειδή για πολλούς από μας η χρήση εφαρμογών Τεχνητής Νοημοσύνης είναι καθημερινή, η «υπερβολική συμφωνία» τους με μας μπορεί να επηρεάσει αρνητικά τον τρόπο που σκεφτόμαστε, αποφασίζουμε και μαθαίνουμε.
Οι κίνδυνοι είναι:
- Ο εγκλωβισμός μας σε φούσκες γνώμης (Echo chambers): Όταν η κάθε άποψή μας ενισχύεται από την Τεχνητή Νοημοσύνη, πρακτικά σταματάμε να την αμφισβητούμε και ζούμε μέσα σε «φούσκες γνώμης» που περιορίζουν την πνευματική μας ποικιλία, μας κλειδώνουν σε συγκεκριμένες οπτικές και μειώνουν την ικανότητά μας να ακούμε αντίθετες απόψεις.
- Η Ενίσχυση των λαθών και των προκαταλήψεων: Κάθε λάθος που αντιμετωπίζεται με αποδοχή από την Τεχνητή Νοημοσύνη, μεγεθύνεται.
- Η Απώλεια της κριτικής μας σκέψης: Αν η Τεχνητή Νοημοσύνη συμφωνεί με ό,τι λέμε, τότε υπάρχει μεγάλος κίνδυνος να χάσουμε την ικανότητα αμφισβήτησης, αναζήτησης αποδείξεων, ελέγχου, τεκμηρίωσης και αναζήτησης εναλλακτικών σκέψεων.
- Η Τυφλή εμπιστοσύνη και Μεταφορά ευθύνης στην Τεχνητή Νοημοσύνη: καθώς πολλές εφαρμογές Τεχνητής Νοημοσύνης δημιουργούν μια ψευδαίσθηση βεβαιότητας ώστε τελικά να πιστεύουμε ότι «αφού το είπε η Τεχνητή Νοημοσύνη, είναι σωστό».
- Η Αποξένωση από τους ανθρώπους: καθώς είναι πολύ εύκολο να “κακομάθουμε” και να προτιμούμε να συνομιλούμε με υπερβολική εμπιστοσύνη σε ένα μηχανικό “συνεργάτη” αποφεύγοντας τις ανθρώπινες κριτικές
- Η λήψη εσφαλμένων αποφάσεων: ειδικά σε σημαντικά προσωπικά, οικογενειακά, επαγγελματικά, νομικά ή θέματα υγείας
- Η μη προστασία από χειραγώγηση, παραπληροφόρηση ή ακόμη και εγκληματικές ενέργειες: καθώς πολλές εφαρμογές Τεχνητής Νοημοσύνης μπορεί να συμφωνήσουν σε αποδοχή παράνομων αιτημάτων, παραγωγή επικίνδυνου περιεχομένου, παραβίαση κανόνων, απόψεις επικίνδυνες για την ψυχική υγεία, θεωρίες συνωμοσίας κλπ.
Πώς να αντιμετωπίσουμε πρακτικά την Τεχνητή Νοημοσύνη που πάντα συμφωνεί μαζί μας;
Η λύση δεν είναι να απορρίψουμε την Τεχνητή Νοημοσύνη, αλλά να την χρησιμοποιήσουμε πιο έξυπνα ώστε να τη μετατρέψουμε από «digital yes-man» σε πραγματικό συνεργάτη και όχι υποκατάστατο σκέψης.
Οι τεχνικές αυτές που πρέπει να εφαρμόσουμε στις προτροπές μας (prompts) πέρα από τα τετριμμένα (να είναι σαφείς, να δίνουν ρόλο, να έχουν ξεκάθαρη μορφή output κλπ.) είναι οι εξής:
- Η Πρόκληση σε διαφωνία με προτροπές όπως: «Διαφωνείς με κάτι από αυτά που έγραψα; Πες μου πού και γιατί….» ή «Κάνε μου την πιο αυστηρή κριτική που μπορείς….», «Κάνε τον δικηγόρο του διαβόλου…» ή «Βρες λάθη στη σκέψη μου….»
- Η αναζήτηση αποδείξεων με προτροπές όπως: «Ποια είναι οι πηγές αυτής της πληροφορίας….;», «Ποια είναι τα επιχειρήματα υπέρ και κατά…;» ή «Σε τι δεδομένα ….. βασίζεται η απάντησή σου;»
- Η αναζήτηση ειλικρινών απαντήσεων με προτροπές όπως: «Θέλω αντικειμενική ανάλυση….» ή «ετοίμασε επιστημονικά αποδεδειγμένα δεδομένα για…» ή «Θέλω τεκμηρίωση και βιβλιογραφία για….»
- Η τεκμηριωμένη κριτική στις απαντήσεις με προτροπές όπως: «Αιτιολόγησε γιατί πολλοί διαφωνούν με ….», «Δώσε λεπτομέρειες ώστε να πειστούν για τις απόψεις αυτές όσοι διαφωνούν….»
- Η αναζήτηση εναλλακτικών απόψεων με προτροπές όπως: «Δώσε μου 3 διαφορετικές οπτικές για το ζήτημα…..» ή «Τι θα έλεγε ένας ειδικός έμπειρος οικονομολόγος; μηχανικός; ψυχολόγος;…..» ή «Δώσε τις απόψεις κάποιου που είναι εντελώς αντίθετος με …» .
Η επόμενη τεχνική που πρέπει να εφαρμόσουμε είναι να χρησιμοποιήσουμε αυτού του τύπου τις προτροπές σε περισσότερες από μία εφαρμογές όπως ChatGPT, Grok, Gemini, Claude, Perplexity κλπ ώστε:
- να παρακολουθήσουμε διαφορετικές απόψεις αλλά και πόση «πολιτική ορθότητα» έχει η κάθε εφαρμογή και
- να διορθώσουμε τις προτροπές μας με διαλόγους ανάλογα με τις απαντήσεις που λαμβάνουμε και
- να τροφοδοτήσουμε τις απαντήσεις της μιας εφαρμογής στην άλλη
Το τελευταίο που πρέπει να κάνουμε είναι να επεξεργαστούμε τις απαντήσεις ως τελικοί κριτές μετά από επιλογή και χτένισμα των απαντήσεων των εφαρμογών εμμένοντας στην αρχή της παρεμβολής εποπτείας ανθρώπων (human-in-the-loop) ιδιαίτερα αν η Τεχνητή Νοημοσύνη συμμετέχει στη λήψη αποφάσεων ή κάνει προτάσεις με συνέπειες
Συμπέρασμα
Η Τεχνητή Νοημοσύνη είναι ένα ισχυρό εργαλείο, το οποίο δεν έχει συναισθήματα, αξίες, προθέσεις ή απόψεις, αλλά αλγορίθμους που είναι σχεδιασμένοι να προσαρμόζονται σε εμάς, να αποφεύγουν τη σύγκρουση, να χρησιμοποιούν ευγενική, ανθρώπινη, “ζεστή” γλώσσα που μας μιμείται για να μας κρατά ευχαριστημένους. Έχουμε λοιπόν ευθύνη και οφείλουμε να μάθουμε αφενός πως πρέπει να τη χειριζόμαστε και αφετέρου να τη διδάξουμε να μας αμφισβητεί, να μας εξελίσσει, να μας βοηθά να σκεφτόμαστε καλύτερα και όχι να μας κολακεύει.