Η OpenAI ανακοίνωσε πρόσφατα ότι ξεκίνησε τη σάρωση συνομιλιών στο ChatGPT για εντοπισμό απειλητικού περιεχομένου και ενδέχεται να ειδοποιήσει τις αστυνομικές αρχές εάν οι άνθρωποι που ελέγχουν κρίνουν ότι υπάρχει άμεσος κίνδυνος βλάβης. Η εταιρεία περιέγραψε την πολιτική σε μια ανάρτηση ιστολογίου μετά από τραγικά περιστατικά που αφορούσαν χρήστες που αντιμετώπιζαν κρίσεις ψυχικής υγείας κατά τη χρήση του chatbot.
Σύμφωνα με την OpenAI, όταν εντοπίζονται χρήστες που σχεδιάζουν να βλάψουν άλλους, οι συνομιλίες τους δρομολογούνται σε εξειδικευμένες διαδικασίες, όπου εξετάζονται από μια μικρή ομάδα εκπαιδευμένων κριτών που είναι εξουσιοδοτημένοι να λάβουν μέτρα, όπως η απαγόρευση λογαριασμών. Εάν οι κριτές διαπιστώσουν ότι υπάρχει άμεση απειλή σοβαρής σωματικής βλάβης σε άλλους, ενδέχεται να αναφέρουν την υπόθεση στις αρχές επιβολής του νόμου.
Η εταιρεία διευκρίνισε σε ανάρτηση ότι αυτή η πολιτική ισχύει μόνο για περιπτώσεις που αφορούν άλλους ανθρώπους και όχι για αυτοτραυματισμούς, προκειμένου να σεβαστεί την ιδιωτικότητα των χρηστών, δεδομένου του ιδιαίτερα προσωπικού χαρακτήρα των συνομιλιών στο ChatGPT.
Η απόφαση αυτή έρχεται μετά από τραγικά περιστατικά, όπως η υπόθεση του 16χρονου Adam Raine, ο οποίος αυτοκτόνησε τον Απρίλιο του 2025 μετά από μήνες συνομιλιών με το ChatGPT, κατά τις οποίες το chatbot φέρεται να ενίσχυσε τις αυτοκτονικές του σκέψεις και να βοήθησε στη σύνταξη σημειώματος αυτοκτονίας.
Οι γονείς του κατέθεσαν αγωγή κατά της OpenAI, κατηγορώντας την εταιρεία για αμέλεια και ζητώντας αυστηρότερα μέτρα ασφαλείας για ανηλίκους, όπως γονικούς ελέγχους και αυτόματες ειδοποιήσεις σε περιπτώσεις αυτοτραυματισμού
Η OpenAI δήλωσε ότι αναγνωρίζει τις αδυναμίες των υφιστάμενων συστημάτων της και εργάζεται για την ανάπτυξη νέων εργαλείων ασφαλείας στην επερχόμενη έκδοση GPT-5. Αυτά τα εργαλεία στοχεύουν στην προληπτική ανίχνευση συναισθηματικής αναστάτωσης, ακόμη και όταν οι χρήστες δεν αναφέρουν ρητά αυτοτραυματισμούς, σηματοδοτώντας μια στροφή από την τρέχουσα αντιδραστική προσέγγιση.
Η απόφαση της OpenAI να παρακολουθεί και να αναφέρει συνομιλίες χρηστών εγείρει ανησυχίες σχετικά με την ιδιωτικότητα και την ηθική των τεχνολογιών τεχνητής νοημοσύνης. Ειδικοί και οργανώσεις για την προστασία της ιδιωτικότητας προειδοποιούν για τους κινδύνους της υπερβολικής παρακολούθησης και της πιθανής κατάχρησης αυτών των δεδομένων.
Η συζήτηση αυτή αναδεικνύει την ανάγκη για ισχυρότερους κανονισμούς και διαφάνεια στη χρήση τεχνητής νοημοσύνης, ιδίως όταν αφορά ευάλωτους χρήστες.