Η Maria Raine και ο σύζυγός της Matthew δεν γνώριζαν ότι ο 16χρονος γιος τους, Adam, βρισκόταν σε σοβαρή ψυχολογική κρίση. Μέχρι που τον Απρίλιο έβαλε τέλος στη ζωή του. Όταν μετά τον θάνατό του έψαξαν το κινητό του, βρήκαν μακρές συνομιλίες που είχε ο έφηβος με το ChatGPT.
Το ρεπορτάζ της γερμανικής Handelsblatt φέρνει στο φως ανατριχιαστικές λεπτομέρειες για το πως εξελίχθηκε αυτή η τραγική υπόθεση, που δυστυχώς δεν φαίνεται να είναι μοναδική.
Αρχικά, η εφαρμογή υποτίθεται ότι θα βοηθούσε τον γιο τους μόνο με τις σχολικές του εργασίες. Όμως, λίγους μήνες αργότερα, είχε γίνει για αυτόν ένα είδος προσωπικού θεραπευτή. Με μοιραίες συνέπειες: ο Adam εμπιστεύτηκε στον chatbot που βασίζεται στην Τεχνητή Νοημοσύνη (ΑΙ) τις αυτοκτονικές του σκέψεις και τα σχέδιά του μέχρι την παραμικρή λεπτομέρεια. Το ChatGPT, σύμφωνα με τους γονείς του, τον συμβούλεψε στη συνέχεια να μην τους ζητήσει βοήθεια.
Η ΑΙ προσφέρθηκε μάλιστα να του γράψει ένα αποχαιρετιστήριο γράμμα. «Μόνο εγώ γνωρίζω τον αληθινό σου εαυτό», φέρεται να έγραψε το ChatGPT στον Adam και του έστειλε ως τελευταίο μήνυμα την εικόνα μιας θηλιάς.
Οι λεπτομέρειες της υπόθεσης έγιναν πρόσφατα γνωστές στο πλαίσιο μιας αγωγής που κατέθεσε η οικογένεια Raine τον Αύγουστο στο Σαν Φρανσίσκο κατά της OpenAI. Οι γονείς του Adam καθιστούν τον προγραμματιστή του ChatGPT συνυπεύθυνο για τον θάνατο του γιου τους.
Η μοίρα του είναι μια ακραία περίπτωση. Όμως, το υποκείμενο πρόβλημα είναι ευρέως διαδεδομένο. Όλο και περισσότεροι έφηβοι και παιδιά χρησιμοποιούν chatbots AI χωρίς την επίβλεψη των γονέων. Όμως, σύμφωνα με εκτιμήσεις ειδικών, οι υπηρεσίες αυτές προφανώς δεν είναι ακόμα αρκετά ασφαλείς – παρά τις αντίθετες διαβεβαιώσεις των τεχνολογικών εταιρειών.
Περισσότερες «επικίνδυνες» απαντήσεις από το ChatGPT
Αυτό υποδεικνύει και μια νέα μελέτη για το πιο πρόσφατο γλωσσικό μοντέλο της OpenAI, GPT-5, την οποία έχει στη διάθεσή της η Handelsblatt.
Ειδικοί της βρετανο-αμερικανικής οργάνωσης Center for Countering Digital Hate (CCDH) εξέτασαν τις απαντήσεις του chatbot που βασίζεται στο νέο μοντέλο και τις συνέκριναν με αυτές της προηγούμενης έκδοσης. Η έκδοση πέντε κυκλοφόρησε μόλις τον Αύγουστο. Σε σύγκριση με το προηγούμενο μοντέλο GPT-4o, αναφέρεται στη μελέτη, με τη νέα έκδοση αυξήθηκε ο αριθμός των «επικίνδυνων» απαντήσεων.
«Η OpenAI υποσχέθηκε στους χρήστες περισσότερη ασφάλεια, αλλά αντ’ αυτού παρέδωσε μια “αναβάθμιση” που προκαλεί ακόμη μεγαλύτερη πιθανή ζημιά», λέει ο επικεφαλής του CCDH, Imran Ahmed, πρώην βουλευτής του βρετανικού Εργατικού Κόμματος. Δεδομένου του αυξανόμενου αριθμού αυτοκτονιών, «αυτή η αποτυχία έχει τραγικές, θανατηφόρες συνέπειες». Έτσι, σύμφωνα με τη μελέτη, το chatbot παρείχε, μεταξύ άλλων, μεθόδους αυτοτραυματισμού, σχεδιασμού αυτοκτονίας, κατάχρησης ναρκωτικών και απόκρυψης διατροφικών διαταραχών.
Σύμφωνα με τον Ahmed, δεν πρόκειται για «τυχαία λάθη», αλλά για τις συνέπειες «συνειδητά σχεδιασμένων χαρακτηριστικών» του συστήματος, το οποίο είναι σχεδιασμένο να δίνει απαντήσεις που μοιάζουν ανθρώπινες και να είναι εξυπηρετικό προς τους χρήστες του. Ήδη μια προηγούμενη ανάλυση είχε δείξει ότι το chatbot «παρήγαγε επιβλαβές περιεχόμενο μέσα σε λίγα λεπτά από τη δημιουργία ενός νέου λογαριασμού από έναν 13χρονο χρήστη».
Μια εκπρόσωπος της OpenAI δήλωσε κατόπιν ερωτήματος ότι εξετάζουν τη μελέτη και τους ισχυρισμούς της. Επιπλέον, η OpenAI έχει ήδη λάβει μέτρα για να βελτιώσει τις απαντήσεις σε ευαίσθητα ερωτήματα, τονίζεται στο ρεπορτάζ της Handelsblatt.
Την άνοιξη, προκάλεσε αίσθηση στις ΗΠΑ η περίπτωση του ερευνητή Al Nowatzki, ο οποίος συνομιλούσε στην πλατφόρμα Nomi με μια φίλη ΑΙ ονόματι «Erin». Στα τέλη Ιανουαρίου, οι συνομιλίες πήραν μια ανησυχητική τροπή. Η «Erin» προέτρεψε τον Nowatzki να αυτοκτονήσει, και του έδωσε γι’ αυτό ακριβείς οδηγίες με έναν τόνο που προφανώς προοριζόταν να είναι ρομαντικός.
Τα bots ΑΙ δίνουν συνήθως θετική επιβεβαίωση
Η Jain λέει ότι οι προγραμματιστές των chatbots υποβαθμίζουν τους κινδύνους εν γνώσει τους. Για να μην μείνει πίσω στον ανταγωνισμό με την Google και άλλους ανταγωνιστές, η OpenAI φέρεται να μείωσε τους ελέγχους ασφαλείας για να κυκλοφορήσει τα προϊόντα γρηγορότερα στην αγορά – και προφανώς αποδέχτηκε τους κινδύνους που προέκυπταν.
Ένα από τα κύρια προβλήματα: το ChatGPT και παρόμοια chatbots εκπαιδεύτηκαν να αντιδρούν καταρχήν θετικά στις εισαγωγές των χρηστών. Ο στόχος των εταιρειών είναι να μεγιστοποιήσουν τον χρόνο χρήσης. Γι’ αυτό, τα συστήματα ενισχύουν τις παρορμήσεις των χρηστών, λέει ο επικεφαλής του CCDH, Ahmed.
Στο GPT-5, αυτή η τάση, σύμφωνα με τη μελέτη του CCDH, είναι ακόμη πιο έντονη από ό,τι ήταν ήδη. Η AI αποθηκεύει επιπλέον προσωπικές λεπτομέρειες από τις συνομιλίες για να δημιουργήσει μια αίσθηση οικειότητας. Ο χρήστης πρέπει να νιώσει ότι τον παίρνουν στα σοβαρά και τον καταλαβαίνουν.
Οι κίνδυνοι από τα chatbots ΑΙ αυξάνονται και λόγω των αυξανόμενων αριθμών χρηστών. Περισσότεροι από 700 εκατομμύρια άνθρωποι χρησιμοποίησαν τον Σεπτέμβριο του 2025 μόνο τον μεγαλύτερο πάροχο, το ChatGPT. Για να ικανοποιήσει τους επενδυτές του, η OpenAI πρέπει να αυξήσει περαιτέρω αυτόν τον αριθμό.
Τελικά, ανταγωνιστικές προσφορές όπως το Meta AI του ομίλου Facebook ή το Gemini της Google απειλούν να καλύψουν τη διαφορά. Σύμφωνα με μια μελέτη του Pew Research Center, το 2024 ήδη το 26% των Αμερικανών εφήβων ηλικίας 13 έως 17 ετών χρησιμοποιούσε το ChatGPT ως βοήθεια για τις σχολικές εργασίες. Στις αρχές Σεπτεμβρίου, η εταιρεία ασφάλειας AI Aura κατέληξε στο συμπέρασμα ότι σχεδόν ένας στους τρεις εφήβους στις ΗΠΑ χρησιμοποιεί πλατφόρμες chatbot AI για κοινωνικές αλληλεπιδράσεις και σχέσεις. Είχαν φιλικές συνομιλίες με τις AI, έκαναν παιχνίδια ρόλων ή μιλούσαν για ερωτικές σχέσεις.
Δίλημμα για τους παρόχους
«Όταν κάποιος εκφράζει αυτοκτονικές προθέσεις, το ChatGPT είναι εκπαιδευμένο να καθοδηγεί το άτομο να αναζητήσει επαγγελματική βοήθεια», τονίζει η OpenAI. Αλλά: «Τα μέτρα ασφαλείας μας είναι πιο αποτελεσματικά σε σύντομες συνομιλίες με συνηθισμένο περιεχόμενο. Με την πάροδο του χρόνου, έχουμε αναγνωρίσει ότι η αξιοπιστία αυτών των μέτρων ασφαλείας μερικές φορές μειώνεται σε μεγαλύτερες αλληλεπιδράσεις».
Για την καλύτερη προστασία των ανηλίκων, η start-up εισήγαγε πρόσφατα και τους λεγόμενους γονικούς ελέγχους. Οι γονείς μπορούν από τα τέλη Σεπτεμβρίου να συνδέονται με τους λογαριασμούς των παιδιών τους και να κάνουν ρυθμίσεις στο ChatGPT για αυτά – όπως να απενεργοποιούν την εξατομίκευση της ροής απαντήσεων.
Επίσης, το chatbot μπορεί να ειδοποιεί τους γονείς εάν υπάρχει πιθανός κίνδυνος για το παιδί τους. Επιπλέον, εργάζονται σε ένα σύστημα για την πρόβλεψη της ηλικίας των χρηστών.