Los psicólogos hacen saltar las alarmas sobre los riegos personales de la nueva moda en ChatGPT
Últimamente hay una tendencia a contar los problemas personales a Inteligencias Artificiales como ChatGPT, que en realidad entraña muchos riesgos

La Inteligencia Artificial va cogiendo terreno en nuestro día a día y ya se ha convertido en una herramienta muy utilizada tanto por adultos como por jóvenes, aunque es verdad que está impactando con fuerza en los adolescentes. De hecho, hay una nueva moda que aunque no les afecta únicamente a ellos, sí son los más señalados. Últimamente se están utilizando programas de Inteligencia Artificial como ChatGPT para hablar con ellos sobre temas personales, en vez de recurrir a figuras reales.
Una práctica que los psicólogos rechazan de forma contundente, desvelando los graves riesgos que esto puede suponer. No solo a nivel psicológico, que puede empeorar los problemas principales, también se pueden dar demasiados datos personales que no son recomendables que estén en la nube.
Los psicólogos avisan sobre el riesgo de hablar con ChatGPT sobre los problemas personales
Hay una tendencia al alza, especialmente en los adolescentes, de hablar con ChatGPT como si fuera el psicólogo, para tratar temas personales que no cuentan a estas figuras ni a padres o amigos. Sin embargo, diferentes expertos han dado la voz de alarma. Una de ellas ha sido Alejandra Enríquez a través de sus redes sociales, detallando todos los riegos. "No sabe quién eres realmente. No va a resolver tus problemas y seguramente esté reforzando las ideas que le estás dando tú" ha sido la principal sentencia de la psicóloga, que explica que la Inteligencia Artificial sólo conoce lo que se le dice, por lo que refuerza las ideas negativas.
"Sanar heridas o curar traumas no va de aplicar una teoría que hay en un manual, va de sentirse visto, de sentirse escuchado, de especificarlo al paciente y hacerlo único" asegura Enríquez, que descarta totalmente esta nueva moda. Aunque no es la única, Marc Masip, psicólogo y experto en adicciones a las nuevas tecnologías también reconoce que las palabras de una IA no van a solucionar ningún problema ya que "algo que se viene perdiendo y que es fundamental es el contacto humano" y es lo fundamental confiesa el psicólogo.
Hablar con ChatGPT y los riesgos de desvelar datos personales
Sin embargo, esta tendencia no sólo puede empeorar la salud psicológica de los que lo utilizan, también puede poner en riesgo su intimidad. El Instituto Universitario Valenciano de Investigación en Inteligencia Artificial de la Universitat Politècnica de València (UPV) ha elaborado un estudio para demostrar lo peligroso que es compartir esta información sensible con los chatbots.
Las conclusiones advierten sobre lo fácil que es crear chatbots maliciosos con el objetivo de manipular a las personas para que revelen información personal, que puede ser utilizada para muchos fines en internet. José Such, catedrático de esta Universidad, lo explica: "con las estrategias que explotan la naturaleza social de las conversaciones, no se dan cuenta, le siguen la conversación de forma natural, y pueden llegar a revelar información muy sensible".
Sin embargo, deja claro que los responsables que sacar esta información personal de forma ilícita son otras personas, no la IA. "No es la IA la que decide comportarse de manera maliciosa y manipular a los humanos, sino que es un humano el que le hace comportarse a la IA de manera maliciosa", concluye.