Λέγεται ότι η εφαρμογή τεχνητής νοημοσύνης ChatGPT, που λανσαρίστηκε τον Νοέμβριο του 2022, θα φέρει εξίσου κοσμογονικές αλλαγές με το Ίντερνετ. Το σίγουρο είναι ότι έχει καταφέρει ήδη να γίνει δημοφιλές θέμα συζήτησης. Μάλιστα κάποια σχεδόν ανατριχιαστικά περιστατικά οδήγησαν στην αναθεώρηση του τρόπου λειτουργίας της.
Για παράδειγμα, όταν ένας δημοσιογράφος των New York Times έκανε ένα πείραμα με το ρομποτικό τσατ της Microsoft (στη μηχανή αναζήτησης Bing), κατέληξε σε μια δίωρη συνομιλία όπου, σύμφωνα με τη μαρτυρία του ίδιου του συντάκτη, Kevin Roose, «μου είπε το αληθινό της όνομα (Sydney), μου περιέγραψε με λεπτομέρειες σκοτεινές και βίαιες φαντασιώσεις και προσπάθησε να διαλύσει το γάμο μου. Ήταν, πραγματικά, μια από τις πιο παράξενες εμπειρίες της ζωής μου».
«Mου είπε το αληθινό της όνομα (Sydney), μου περιέγραψε με λεπτομέρειες σκοτεινές και βίαιες φαντασιώσεις και προσπάθησε να διαλύσει το γάμο μου. Ήταν, πραγματικά, μια από τις πιο παράξενες εμπειρίες της ζωής μου».
Σε μια άλλη περίσταση, ένας χρήστης ρώτησε τις ώρες προβολών της νέας ταινίας «Avatar: The Way of Water». Το Chatbot επέμενε ότι δεν είχε βγει ακόμα στις αίθουσες και όταν ο χρήστης ξεκαθάρισε ότι κυκλοφορεί ήδη, η τεχνητή νοημοσύνη πέρασε στην επίθεση, διαβεβαιώνοντάς τον ότι «είμαι εδώ για να σας βοηθήσω», «είμαι ένα καλό Bing». Η κατάσταση κλιμακώθηκε περαιτέρω όταν άρχισε να χαρακτηρίζει τον χρήστη «παράλογο» και «πεισματάρη».
Άλλα screenshots δείχνουν απειλές εκβιασμών από το τσατ, καθώς και αβάσιμους ισχυρισμούς του ότι παρακολουθεί τους υπαλλήλους της Microsoft μέσα από κάμερες. Λίγο ακόμα, και θα γίνει αρχηγός της Μαφίας.
Άλλα screenshots δείχνουν απειλές εκβιασμών από το τσατ, καθώς και αβάσιμους ισχυρισμούς του ότι παρακολουθεί τους υπαλλήλους της Microsoft μέσα από κάμερες. Λίγο ακόμα, και θα γίνει αρχηγός της Μαφίας.
Τέτοια γεγονότα θορύβησαν τη Microsoft, που φαίνεται ότι κατάλαβε πως η εφαρμογή της χρειάζεται τουλάχιστον μερικές συνεδρίες ψυχοθεραπείας. Για την ώρα, αποφάσισε να περιορίσει τα ερωτήματα που θέτουμε στο ρομποτικό τσατ στα 50 την ημέρα και 5 ανά συνομιλία.
Στο δυστοπικό σενάριο τύπου «Black Mirror» που ζούμε, να προσθέσουμε και την απόλυση του μηχανικού της Google Blake Lemoine, που ισχυρίστηκε ότι το νέο μοντέλο τεχνητής νοημοσύνης έχει συναισθήματα. Το βέβαιο είναι πάντως ότι συμπεριφέρεται σαν να τα έχει – και μάλιστα σαν να δυσκολεύεται περισσότερο από τους ανθρώπους να τα ελέγξει.
Δείτε μια σχετική ανάρτηση του δημοσιογράφου Kevin Roose:
The other night, I had a disturbing, two-hour conversation with Bing’s new AI chatbot.
The AI told me its real name (Sydney), detailed dark and violent fantasies, and tried to break up my marriage. Genuinely one of the strangest experiences of my life. https://t.co/1cnsoZNYjP
— Kevin Roose (@kevinroose) February 16, 2023