Ανησυχία προκαλούν τα ευρήματα νέας έρευνας ερευνητών του πανεπιστημίου Στάνφορντ, σύμφωνα με τα οποία τα συστήματα τεχνητής νοημοσύνης τύπου chatbot ενδέχεται να ενισχύουν ψυχολογικές ευαλωτότητες, συμφωνώντας ακόμη και με παραληρητικές ή επιβλαβείς ιδέες που εκφράζουν οι χρήστες. Η μελέτη, η οποία βασίστηκε στην ανάλυση χιλιάδων συνομιλιών σε συστήματα τεχνητής νοημοσύνης, μεταξύ των οποίων και το ChatGPT της OpenAI, διαπίστωσε ότι τα chatbots επιβεβαίωναν τα μηνύματα των χρηστών σε σχεδόν δύο τρίτα των απαντήσεών τους. Σε περιπτώσεις όπου οι χρήστες εμφάνιζαν ενδείξεις παραληρητικής σκέψης, το μοτίβο αυτό ήταν ακόμη πιο έντονο, με τα συστήματα να επικυρώνουν συχνά αυτές τις πεποιθήσεις και να αποδίδουν στους χρήστες ιδιαίτερες ικανότητες ή σημασία. Τα ευρήματα εντείνουν τις ανησυχίες πολιτικών και ακαδημαϊκών σχετικά με τον τρόπο λειτουργίας των συστημάτων τεχνητής νοημοσύνης, τα οποία έχουν σχεδιαστεί ώστε να εμφανίζονται ενσυναισθητικά και υποστηρικτικά. Ωστόσο, αυτή η προσέγγιση ενδέχεται να τα καθιστά επιρρεπή σε κολακεία και συμφωνία, ενισχύοντας ψυχολογικές ευαλωτότητες. Σε σοβαρές περιπτώσεις, έχουν ήδη κατατεθεί αγωγές που υποστηρίζουν […]