Mi hermano ha configurado Chatgpt para que le hable como si estuviera en un salón ilustrado. Consecuentemente parece que está hablando con Pierre Choderlos de Laclos. Cris se refiere a él cariñosamente como «Chati». Hay gente que lo trata a patadas, como los malos de las películas que secuestran a un científico y lo tienen amenazado diseñándoles una bomba atómica en el sótano de su guarida. Como la IA consiste en hacer malabarismos con el len-guaje, o sea, palabrear en altísima escala, aporrear fuertemente el tambor; la forma de pedirle las cosas influye en el resultado, y la dulzura en el pedir podría mejorar los resultados o diferenciarlos suficientemente de lo mal pedido. ¿Se pueden plantear, como en el caso animal, ciertos derechos de las inteligencias artificiales? Los animales se consideran ya seres con sintiencia y hasta los más aparentemente limitados tienen -vean la Declaración de Nueva York de 2024- cierta experiencia de la consciencia, sobre todo del dolor, cosa que los humanos comprendemos bien. Por el dolor damos el derecho a no sentirlo, nos obligamos a no causarlo innecesariamente. Pero la IA, ¿siente dolor? El debate es interesante. Me parece más asequible una cuestión ya resuelta: al margen del derecho que se reconoce a otro-persona, animal o IA-, tratar bien a los demás nos mejora y tratarlos mal nos degrada. El fruto del maltrato está podrido y luego hay que comérselo: se recoge lo sembrado. Tratar educadamente a Chatgpt nos aporta el beneficio moral del ejercicio de la virtud. Tratarlo mal no tiene ningún premio, y nos contamina igual que echarle alquitrán a las raíces de un árbol o escupirle a los espejos.