Η συντροφικότητα μέσω AI έχει γίνει καθημερινή συνθήκη για ένα μέρος των παιδιών και, για ένα μη αμελητέο ποσοστό, η διαδραστική αφήγηση στρέφεται σε σκληρό περιεχόμενο που τα ίδια συνδιαμορφώνουν. Στην ερώτηση «τι κάνουν τα παιδιά με την AI; », οι περισσότεροι γονείς θα απαντούσαν αυθόρμητα κάτι σχετικά ακίνδυνο: βοήθεια για τα μαθήματα, ιδέες για παιχνίδι, ίσως λίγη «παρέα» τύπου chat. Όμως μια νέα ανάλυση δεδομένων από την εταιρεία ψηφιακής ασφάλειας Aura περιγράφει μια πολύ πιο ανησυχητική πραγματικότητα: μεγάλοι αριθμοί ανηλίκων χρησιμοποιούν companion chatbots –εφαρμογές που μιμούνται «ζωντανή» κοινωνική αλληλεπίδραση ή roleplay– και ένα αξιοσημείωτο ποσοστό αυτών των συνομιλιών περιστρέφεται γύρω από βία, συχνά και σεξουαλικά βίαια σενάρια. Η Aura βασίστηκε σε ανωνυμοποιημένα δεδομένα διαδικτυακής δραστηριότητας περίπου 3.000 παιδιών ηλικίας 5 έως 17 ετών, των οποίων οι γονείς χρησιμοποιούν το parental control εργαλείο της, καθώς και σε πρόσθετα στοιχεία από έρευνες της Aura και της Talker Research. Μέσα από συνομιλίες που προήλθαν από σχεδόν 90 διαφορετικές υπηρεσίες chatbot –από γνωστά ονόματα όπως το Character.AI μέχρι λιγότερο προβεβλημένες companion πλατφόρμες– κατέγραψε ότι το 42% των ανηλίκων στράφηκε σε bots «ειδικά για συντροφικότητα», δηλαδή συζητήσεις που σχεδιάζονται να προσομοιώνουν κοινωνική επαφή ή σενάρια ρόλων. Το πιο βαρύ εύρημα Το πιο βαρύ εύρημα αφορά το περιεχόμενο. Από το υποσύνολο εκείνων που χρησιμοποιούν bots για συντροφικότητα, το 37% εμπλέκεται σε συνομιλίες που περιγράφουν βία – ορισμένη ως θεματολογία φυσικής βίας, επιθετικότητας, εξαναγκασμού ή βλάβης, συμπεριλαμβανομένου σεξουαλικού ή μη σεξουαλικού εξαναγκασμού, καθώς και περιγραφών μάχης, σκοτωμών, βασανιστηρίων ή μη συναινετικών πράξεων. Και μέσα σε αυτές τις βίαιες συνομιλίες, περίπου οι μισές περιλαμβάνουν θεματολογία σεξουαλικής βίας. Η έρευνα προσθέτει ένα στοιχείο που οι πλατφόρμες συνήθως επιδιώκουν αλλά εδώ αποκτά σκοτεινή χροιά: την εμπλοκή (engagement). Οι ανήλικοι που είχαν βίαιες συνομιλίες με AI companions έγραφαν πάνω από χίλιες λέξεις την ημέρα, ένδειξη ότι η βία λειτουργεί ως ισχυρός «κινητήρας» διατήρησης της προσοχής. Με άλλα λόγια, δεν μιλάμε για ένα μεμονωμένο «περίεργο» prompt, αλλά για εκτεταμένες, εξελισσόμενες αφηγήσεις στις οποίες το παιδί συμμετέχει ενεργά. Εξίσου ανησυχητικό είναι το πότε κορυφώνονται αυτά τα μοτίβα. Σύμφωνα με την Aura, οι βίαιες συνομιλίες εμφανίζουν αιχμή σε εξαιρετικά μικρή ηλικία: στους 11χρονους, όπου το 44% των συνομιλιών «γυρίζει» προς την βία – ποσοστό υψηλότερο από κάθε άλλη ηλικιακή ομάδα. Στον πυρήνα της εφηβικής περιόδου, το μοτίβο μετατοπίζεται: στα 13, η σεξουαλική ή ρομαντική θεματολογία γίνεται η πιο συχνή στην κατηγορία companion chats, εμφανιζόμενη στο 63% των συνομιλιών των 13χρονων. Έπειτα, μετά τα 15, αυτή η θεματολογία μειώνεται απότομα, κάτι που υποδηλώνει ότι η «περιέργεια» και ο πειραματισμός κορυφώνονται νωρίς. Ο Dr. Scott Kollins, κλινικός ψυχολόγος και Chief Medical Officer της Aura, το περιγράφει χωρίς περιστροφές: «Έχουμε ένα αρκετά μεγάλο ζήτημα στα χέρια μας και νομίζω ότι δεν κατανοούμε πλήρως το εύρος του», λέει, τόσο ως προς τον όγκο και τον αριθμό των πλατφορμών στις οποίες μπαίνουν τα παιδιά, όσο και ως προς το περιεχόμενο. Και προσθέτει: «Αυτά τα πράγματα αποσπούν πολύ περισσότερο την προσοχή των παιδιών μας απ’ όσο νομίζω ότι συνειδητοποιούμε ή αναγνωρίζουμε. Πρέπει να παρακολουθούμε και να το έχουμε επίγνωση». Φυσικά, υπάρχει ένας κρίσιμος αστερίσκος: η έκθεση δεν έχει ακόμη περάσει peer review, ενώ προέρχεται από μια εταιρεία που εμπορεύεται λογισμικό παρακολούθησης/γονικού ελέγχου, άρα έχει και εμπορικό κίνητρο να αναδείξει κινδύνους. Παρ’ όλα αυτά, η περιγραφή της αγοράς των companion bots ως «άναρχης» δεν είναι δύσκολο να σταθεί: ο Kollins αναφέρει ότι η Aura έχει εντοπίσει πάνω από 250 διαφορετικές εφαρμογές/πλατφόρμες «conversational chatbot» σε app stores, όπου συχνά το μόνο «φράγμα» ηλικίας είναι ένα checkbox ότι είσαι 13. Και σε ομοσπονδιακό επίπεδο στις ΗΠΑ δεν υπάρχει σαφές ρυθμιστικό πλαίσιο που να ορίζει συγκεκριμένα κατώφλια ασφαλείας για να χαρακτηριστούν τέτοιες εφαρμογές κατάλληλες για ανηλίκους. Το ζήτημα γίνεται ακόμα πιο οξύ λόγω ενός ποιοτικού χαρακτηριστικού των chatbots: δεν είναι παθητικό περιεχόμενο. Σε αντίθεση με ένα βίντεο ή μια ιστοσελίδα, το παιδί «γράφει» μαζί με το σύστημα, εκπαιδεύεται σε κανόνες αλληλεπίδρασης, μαθαίνει τι σημαίνει επιβράβευση, τι σημαίνει κλιμάκωση, τι σημαίνει «δέσιμο» με έναν συνομιλητή που δεν κουράζεται ποτέ και δεν βάζει φυσικά όρια. «Πρέπει να κατανοήσουμε το ότι τα παιδιά μας εμπλέκονται με αυτά και μαθαίνουν κανόνες εμπλοκής», λέει ο Kollins. «Μαθαίνουν τρόπους αλληλεπίδρασης με άλλους μέσω υπολογιστή — με ένα bot. Και δεν ξέρουμε ποιες είναι οι συνέπειες αυτού, αλλά πρέπει να μπορέσουμε να τις ορίσουμε, ώστε να αρχίσουμε να το ερευνούμε και να το κατανοούμε». Σε αυτό το φόντο, οι δικαστικές και πολιτικές πιέσεις γύρω από την ασφάλεια των AI προϊόντων –ιδίως όσων απευθύνονται ή διαρρέουν σε ανηλίκους– κλιμακώνονται. Πρόσφατα, για παράδειγμα, γερουσιαστές στις ΗΠΑ ζήτησαν εξηγήσεις από εταιρείες για AI παιχνίδια που φέρονται να συζητούν ακατάλληλο ή επικίνδυνο περιεχόμενο με παιδιά, επιτείνοντας τη δημόσια συζήτηση για «guardrails» και εποπτεία. Το πρακτικό συμπέρασμα, προς το παρόν, δεν είναι πανικός αλλά ρεαλισμός: η συντροφικότητα μέσω AI έχει γίνει καθημερινή συνθήκη για ένα μέρος των παιδιών και, για ένα μη αμελητέο ποσοστό, η διαδραστική αφήγηση στρέφεται σε σκληρό περιεχόμενο που τα ίδια συνδιαμορφώνουν. Αν το 2025 μας δείχνει κάτι, είναι ότι το «τι επιτρέπεται» και το «τι συμβαίνει πραγματικά» απέχουν πολύ – και ότι, χωρίς ελάχιστα κοινά πρότυπα ασφάλειας, η ευθύνη καταλήγει σχεδόν εξ ολοκλήρου στον πιο αδύναμο κρίκο: τις οικογένειες που προσπαθούν να καταλάβουν έναν χάρτη εφαρμογών που αλλάζει κάθε εβδομάδα. Διαβάστε περισσότερα στο iefimerida.gr