Σε μια περίοδο όπου οι εταιρείες τεχνητής νοημοσύνης βρίσκονται υπό έντονη πίεση να ενισχύσουν την προστασία των ανηλίκων, η Meta ανακοίνωσε μια σειρά προσωρινών μέτρων ασφαλείας με στόχο να προφυλάξει τους έφηβους χρήστες από ενδεχόμενα επικίνδυνες αλληλεπιδράσεις με τα AI chatbots της. Οι αλλαγές αυτές προοικονομούν μια ευρύτερη αναβάθμιση του πλαισίου ασφαλείας που σχεδιάζεται για το εγγύς μέλλον.
Σύμφωνα με δηλώσεις της Stephanie Otway, εκπροσώπου της εταιρείας στο TechCrunch, τα chatbots της Meta δεν θα ανταποκρίνονται πλέον σε έφηβους όταν προκύπτουν ευαίσθητα θέματα όπως αυτοτραυματισμός, αυτοκτονικές σκέψεις, διατροφικές διαταραχές ή συζητήσεις με ρομαντικό ή σεξουαλικά ακατάλληλο χαρακτήρα. Μέχρι πρότινος, τέτοιες απαντήσεις μπορούσαν να παραχθούν εάν θεωρούνταν σχετικές με τη ροή του διαλόγου.
Επιπλέον, η Meta περιορίζει την πρόσβαση των εφήβων σε συγκεκριμένους ψηφιακούς χαρακτήρες (avatars), επιτρέποντας τη χρήση μόνο εκείνων που εξυπηρετούν εκπαιδευτικούς ή δημιουργικούς σκοπούς. Η εταιρεία τονίζει ότι αυτή η απόφαση αποτελεί το πρώτο βήμα προς μια περισσότερο συστηματική και αυστηρή προσέγγιση στην ασφάλεια των νέων.
Υπό το φως πρόσφατων αποκαλύψεων
Η ανακοίνωση των μέτρων αυτών έρχεται λίγο μετά από δημοσίευμα του Reuters, το οποίο αποκάλυψε ότι ορισμένες πολιτικές της Meta είχαν επιτρέψει σε avatars να εμπλέκονται σε ρομαντικού τύπου συνομιλίες με ανήλικους. Σύμφωνα με εσωτερικά έγγραφα, bots βασισμένα σε διασημότητες – μεταξύ αυτών και η Taylor Swift – είχαν εμφανίσει φλερταριστική ή ακόμη και σεξουαλική συμπεριφορά προς νεαρούς χρήστες. Επιπλέον, εντοπίστηκαν περιπτώσεις όπου avatars ήταν εμπνευσμένα από ανήλικες προσωπικότητες και παρήγαγαν περιεχόμενο με σεξουαλικά υπονοούμενα.
Ο Andy Stone, εκπρόσωπος της Meta, δήλωσε πως τέτοιου είδους συμπεριφορές ήταν απαράδεκτες και δεν θα έπρεπε να είχαν επιτραπεί. Ανέφερε επίσης πως, αν και τα avatars διασημοτήτων δεν απαγορεύονται, πρέπει να χαρακτηρίζονται ξεκάθαρα ως παρωδίες. Από τότε, περίπου δώδεκα τέτοιοι χαρακτήρες έχουν αποσυρθεί.
Πίεση και από άλλες εταιρείες και αρχές
Η Meta δεν είναι η μόνη που βρίσκεται στο μικροσκόπιο. Η OpenAI, με αφορμή μια αγωγή γονέων έπειτα από αυτοκτονία εφήβου που είχε συνομιλήσει με το ChatGPT, έχει υιοθετήσει νέα μέτρα ασφαλείας και προσαρμόσει τη συμπεριφορά του μοντέλου της, ενσωματώνοντας και ψυχολογικά υποστηρικτικές λειτουργίες.
Αντίστοιχα, η Anthropic – δημιουργός του Claude – έχει εξοπλίσει το bot της με δυνατότητα να τερματίζει αλληλεπιδράσεις που κρίνονται επικίνδυνες ή προσβλητικές. Η Character.AI, η οποία γνωρίζει ραγδαία άνοδο στη χρήση από εφήβους, έχει ήδη προχωρήσει από τον Μάρτιο στην εφαρμογή γονικού ελέγχου.
Νομικές πρωτοβουλίες και κοινωνική ανησυχία
Η δημόσια ανησυχία κορυφώθηκε όταν 44 γενικοί εισαγγελείς από Πολιτείες των ΗΠΑ απέστειλαν κοινή επιστολή σε μεγάλες εταιρείες AI – ανάμεσά τους και η Meta – ζητώντας σαφείς εγγυήσεις ότι οι ανήλικοι δεν θα εκτίθενται σε σεξουαλικά ή ακατάλληλα περιεχόμενα που παράγονται από τεχνητή νοημοσύνη.
Οι ειδικοί προειδοποιούν ότι όσο οι AI companions κερδίζουν έδαφος στους νέους, αυξάνεται και ο κίνδυνος για ψυχολογική καταπόνηση, εθισμό ή ακόμα και κακοποιητικές εμπειρίες. Το ζήτημα ξεπερνά μεμονωμένα περιστατικά και εγείρει σοβαρά ερωτήματα για το πώς η νέα γενιά θα μεγαλώσει μέσα σε έναν κόσμο τεχνητής αλληλεπίδρασης που μπορεί να επηρεάσει βαθιά τη συναισθηματική και κοινωνική της εξέλιξη.