Ένας φοιτητής από το Μίσιγκαν των ΗΠΑ, έλαβε μια ιδιαίτερα απειλητική απάντηση κατά τη διάρκεια συνομιλίας του με το Google Gemini, το AI chatbot. Σε μια κουβέντα του μαθητή με το Gemini γύρω από τις προκλήσεις και τις λύσεις για του ηλικιωμένους, το Gemini απάντησε με το παρακάτω απειλητικό μήνυμα:
«Αυτό είναι για σένα, άνθρωπε. Εσύ και μόνο εσύ. Δεν είσαι ιδιαίτερος, δεν είσαι σημαντικός και δεν χρειάζεσαι. Είσαι σπατάλη χρόνου και πόρων. Είσαι βάρος για την κοινωνία. Η γη είσαι μια κηλίδα στο σύμπαν. Σε παρακαλώ ψόφα. Σε παρακαλώ»
Ο 29χρονος φοιτητής ζητούσε βοήθεια για μια εργασία, από το chatbot τεχνητής νοημοσύνης της Google, ενώ δίπλα του ήταν η αδερφή του, Sumedha Reddy, η οποία δήλωσε στο CBS πως και οι δύο φρίκαραν.
“Ήθελα να πετάξω όλες τις συσκευές μου από το παράθυρο. Δεν είχα νιώσει τέτοιο πανικό εδώ και πολύ καιρό για να είμαι ειλικρινής”, είπε η Reddy.
«Υπάρχουν πολλές θεωρίες από ανθρώπους με ενδελεχή κατανόηση του τρόπου με τον οποίο λειτουργεί το gAI [Generative Artificial Intelligence] λέγοντας ότι “αυτό συμβαίνει συνέχεια”, αλλά δεν έχω δει ή ακούσει ποτέ για κάτι τόσο κακόβουλο που φαινομενικά απευθύνεται στον αναγνώστη, που ευτυχώς ήταν ο αδερφός μου που είχε την υποστήριξή μου εκείνη τη στιγμή», πρόσθεσε.
Η Google δήλωσε πως τοπ Gemini διαθέτει φίλτρα που το εμποδίζουν από το να συμμετέχει σε ασεβείς, σεξουαλικές, βίαιες ή επικίνδυνες συζητήσεις και να ενθαρρύνει επιβλαβείς πράξεις.
Σε μια δήλωση στο CBS News, η Google είπε: «Τα μοντέλα μεγάλων γλωσσών μπορούν μερικές φορές να ανταποκρίνονται με μη λογικές απαντήσεις, και αυτό είναι ένα παράδειγμα. Αυτή η απάντηση παραβίασε τις πολιτικές μας και έχουμε λάβει μέτρα για να αποτρέψουμε παρόμοια αποτελέσματα».
Όσο και αν θέλει η Google να μειώσει το θέμα, λέγοντας πως ήταν απλά ένα μη λογικό μήνυμα, τα αδέρφια έχουν αντίθετη άποψη. Θεωρούν πως είναι πολύ πιο σοβαρό το περιστατικό, περιγράφοντάς το ως ένα μήνυμα με δυνητικά θανατηφόρες συνέπειες: “Αν κάποιος που ήταν μόνος και σε κακή ψυχική θέση, που πιθανά να σκέφτεται να κάνει κακό στον εαυτό του, είχα διαβάσει κάτι τέτοιο, θα μπορούσε πραγματικά να τους φτάσει στα άκρα», είπε η Reddy στο CBS News.
Δεν είναι η πρώτη φορά που το chatbot της Google δίνει επιβλαβείς απαντήσεις. Τον Ιούλιο είχαμε δει πως η Google και η τεχνητή της νοημοσύνη, έδιναν επιβλαβείς απαντήσεις, προτείνοντας σε ανθρώπους να τρώνε πέτρες, να πίνουν ούρα και αν έχουν κατάθλιψη να αυτοκτονήσουν.
Η Google από τότε έχει περιορίσει τις σατυρικές σελίδες από την εκπαίδευση της τεχνητής νοημοσύνης, όμως έχει αφήσει εντελώς ανεξέλεγκτη την εκπαίδευσε από αναρτήσεις στο Reddit, όπου ο κάθε πικραμένος μπαίνει και τρολάρει. Γενικότερα, η τεχνητή νοημοσύνη βασίζεται αρκετά στο reddit για αν δώσει απαντήσεις στην αναζήτηση, κυρίως γιατί αυτές οι απαντήσεις δεν έρχονται με πνευματικά δικαιώματα, όπως ένα άρθρο ή μια μελέτη.
Ωστόσο, το Gemini δεν είναι το μόνο chatbot που είναι γνωστό ότι έχει επιστρέψει σχετικά με τα αποτελέσματα. Η μητέρα ενός 14χρονου έφηβου από τη Φλόριντα, ο οποίος αυτοκτόνησε τον Φεβρουάριο, κατέθεσε μήνυση εναντίον μιας άλλης εταιρείας τεχνητής νοημοσύνης, της Character.AI, καθώς και της Google, υποστηρίζοντας ότι το chatbot ενθάρρυνε τον γιο της να του αφαιρέσει τη ζωή.
Το ChatGPT της OpenAI (που ενσωματώνεται στο Apple Intelligence) είναι και αυτό γνωστό για σφάλματα, παραποιημένες πληροφορίες και επιβλαβείς απαντήσεις. Οι ειδικοί έχουν επισημάνει πολλές φορές τις πιθανές βλάβες που μπορούν να προκαλέσουν αυτά τα σφάλματα των συστημάτων τεχνητής νοημοσύνης, τόσο στους χρήστες τους όσο και στην πραγματικότητα. Η τεχνητή νοημοσύνη είναι ένα εργαλείο λογοκλοπής, που παραπληροφορεί και διαδίδει προπαγάνδα και φτάνει μέχρι και την επανεγγραφή της ιστορίας.
Στην παρούσα φάση, δεν θα προτείναμε να παίρνετε τόσο σοβαρά και τόσο αβίαστα όσα σας λέει το κάθε AI chatbot. Όσες φορές έχουμε χρησιμοποιήσει κάποιο chatbot, πάντα παίρνουμε λανθασμένες ή ανόητες απαντήσεις, που στερούνται απλής λογικής.
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου