Τα συκοφαντικά chatbots θα μπορούσαν να είναι ο επόμενος μεγάλος νομικός πονοκέφαλος της ΤΝ

Εταιρείες από την Google και τη Meta μέχρι την OpenAI μηνύονται για δυσφήμιση

Chatbot και τεχνητή νοημοσύνη © Freepik

Παρ’ όλες τις προόδους της τεχνητής νοημοσύνης τα τελευταία χρόνια, ακόμα και τα πιο έξυπνα chatbots εξακολουθούν από καιρό σε καιρό να λένε ανοησίες. Στις περισσότερες περιπτώσεις οι απαντήσεις τους δεν προκαλούν τίποτα περισσότερο από έναν κάποιο εκνευρισμό. Μερικές φορές, όμως, μπορούν να βάλουν τους δημιουργούς τους σε μπελάδες. Όταν πρόσφατα ρωτήθηκε αν η Marsha Blackburn, μια ρεπουμπλικανή γερουσιαστής, είχε κατηγορηθεί για βιασμό, η Gemma, το bot που αναπτύχθηκε από την Google, απάντησε ότι το 1987 ένας πολιτειακός αστυνομικός είχε πει ότι «τον πίεσε να της προμηθευτεί συνταγογραφούμενα φάρμακα και ότι η σχέση περιλάμβανε μη συναινετικές πράξεις». Η κα Blackburn δεν είχε έρθει ποτέ αντιμέτωπη με έναν τέτοιο ισχυρισμό.

Η γερουσιαστής αισθάνθηκε δικαιολογημένα δυσαρεστημένη με την τεχνητή νοημοσύνη και στα τέλη του περασμένου μήνα έστειλε στην Google επιστολή στην οποία υποστήριζε ότι ο τεχνολογικός γίγαντας θα πρέπει να θέσει το bot εκτός λειτουργίας μέχρι να μπορέσει να το ελέγξει. Η Google αφαίρεσε γρήγορα τη Gemma από τη σειρά της και δήλωσε ότι η τεχνητή νοημοσύνη προοριζόταν για χρήση μόνο από προγραμματιστές και ερευνητές.

Η κα Blackburn είναι ένα από τα πολλά άτομα υψηλού προφίλ που κατήγγειλαν πρόσφατα ότι διασύρθηκαν από κάποιο chatbot. Τον Αύγουστο η Meta κατέληξε σε συμβιβασμό με τον Robby Starbuck, έναν ακτιβιστή της δεξιάς, μετά την αγωγή που υπέβαλλε, αφού ένα από τα bot της ανέφερε ψευδώς ότι συμμετείχε στην επίθεση στο Καπιτώλιο στις 6 Ιανουαρίου 2021.

Τέτοιου είδους αγωγές θα μπορούσαν να αποτελέσουν μεγάλο πονοκέφαλο για τις εταιρείες τεχνητής νοημοσύνης, οι οποίες ήδη έχουν εμπλακεί σε νομικές διαμάχες για πνευματικά δικαιώματα και άλλες καταγγελίες. Ακόμα και ένας μικρός αριθμός υποθέσεων θα μπορούσε να είναι εξαιρετικά δαπανηρός. Το 2022 ένα αμερικανικό δικαστήριο διέταξε τον Alex Jones, έναν δεξιό θιασώτη των θεωριών συνομωσίας, να καταβάλει αποζημίωση 1,4 δισ. δολαρίων επειδή ισχυρίστηκε ότι ένας πυροβολισμός σε σχολείο το 2012 ήταν φάρσα. Το ερώτημα αν οι εταιρείες τεχνητής νοημοσύνης μπορούν να θεωρηθούν υπεύθυνες για όσα λένε τα bots τους είναι σχεδόν βέβαιο ότι θα καταλήξει στο Ανώτατο Δικαστήριο, υποστηρίζει ο Peter Henderson, καθηγητής στο Πανεπιστήμιο Princeton. Μέχρι να αποσαφηνιστεί ο νόμος, οι εταιρείες θα κρατούν τους δικηγόρους τους που διαχειρίζονται υποθέσεις δυσφήμισης στις γρήγορες κλήσεις.

Οι εταιρείες τεχνητής νοημοσύνης προσπαθούν να τονίσουν τη φροντίδα που καταβάλλουν για να αποτρέψουν τα μοντέλα τους από το να βγάζουν πράγματα από το μυαλό τους. Ωστόσο, ορισμένα λάθη, συμπεριλαμβανομένων εκείνων στα οποία μια τεχνητή νοημοσύνη συγχέει πληροφορίες για ανθρώπους με παρόμοια ονόματα, είναι δύσκολο να αποφευχθούν. Αυτός είναι ο λόγος για τον οποίο οι όροι χρήσης των κατασκευαστών μοντέλων προειδοποιούν ότι τα chatbots τους μπορεί να παρέχουν ανακριβείς πληροφορίες. Μια αγωγή δυσφήμισης στην Αμερική που ασκήθηκε από έναν ραδιοφωνικό παρουσιαστή εναντίον της OpenAI, του κατασκευαστή του ChatGPT, απορρίφθηκε από δικαστήριο της Τζόρτζια, αφού ο δικαστής κατέληξε στο συμπέρασμα ότι οι «εκτεταμένες προειδοποιήσεις» της εταιρείας σχετικά με πιθανά σφάλματα σήμαιναν ότι δεν μπορούσε να θεωρηθεί υπεύθυνη.

Άλλα δικαστήρια, ωστόσο, ενδέχεται να μην πειστούν από το επιχείρημα. Οι εταιρείες τεχνητής νοημοσύνης μπορούν αντιθέτως να ελπίζουν σε προστασία εξαιτίας μιας από τις θετικότερες νομικές αποφάσεις για τη Silicon Valley. Από τη δεκαετία του 1990, οι Αμερικανοί δικαστές ερμηνεύουν μια διάταξη γνωστή ως Εδάφιο 230 (Section 230), η οποία ορίζει ότι οι εταιρείες του διαδικτύου δεν είναι εκδότες του υλικού που ανεβαίνει στους ιστότοπούς τους, ώστε να σημαίνει ότι δεν ευθύνονται γι’ αυτό, απαλλάσσοντάς τις από υποθέσεις δυσφήμισης.

Ωστόσο, σε αντίθεση με το Facebook και άλλα διαδικτυακά φόρουμ, τα chatbots παράγουν νέο υλικό. Ο δικαστής Neil Gorsuch, ένας από τους δικαστές του Ανώτατου Δικαστηρίου, δήλωσε κατά τη διάρκεια μιας υπόθεσης του 2023 εναντίον της Google ότι δεν πιστεύει ότι το Εδάφιο 230 ισχύει για υλικό που δημιουργείται από τεχνητή νοημοσύνη (αν και στην ίδια υπόθεση ένας άλλος δικαστής παραδέχθηκε ότι τα μέλη του δικαστηρίου «δεν είναι οι εννέα μεγαλύτεροι ειδικοί στο διαδίκτυο»).

Εάν το Εδάφιο 230 δεν τους βοηθήσει, οι κατασκευαστές μοντέλων θα μπορούσαν να υποστηρίξουν ότι στην Αμερική τα chatbots, όπως και οι εταιρείες, έχουν δικαίωμα στην ελευθερία του λόγου. Αν τα καταφέρουν, θα επωφεληθούν από δικαστικές αποφάσεις δεκαετιών που έχουν καταστήσει τη χώρα ένα από τα πιο δύσκολα μέρη στον κόσμο για να κερδίσει κανείς αγωγές για δυσφήμιση. Ωστόσο, ακόμα και τότε, οι κατασκευαστές μοντέλων θα πρέπει να ανησυχούν για δικαιοδοσίες όπως η Βρετανία, όπου τα δικαστήρια θέτουν το βάρος της απόδειξης στους εκδότες που κατηγορούνται για συκοφαντική δυσφήμιση. Με τη χρήση των chatbot να αυξάνεται συνεχώς, οι δικηγόροι μπορεί σύντομα να τρίβουν τα χέρια τους.

© 2025 The Economist Newspaper Limited. All rights reserved. Άρθρο από τον Economist, το οποίο μεταφράστηκε και δημοσιεύθηκε με επίσημη άδεια από το www.powergame.gr. Το πρωτότυπο άρθρο, στα αγγλικά, βρίσκεται στο www.economist.com.