Nunca preguntes esto a ChatGPT
Cada día son más usuarios los que confían sus secretos a ChatGPT, pero no todo vale en el mundo de la IA: compartir información personal puede salir muy caro

La inteligencia artificial, esa compañera que llegó casi de forma silenciosa para cambiarlo todo. Una acompañante todoterreno que puede redactar textos, asistir en programación, traducir idiomas e incluso razonar en tareas difíciles o de toma de decisión. Dentro del uso diarios de la IA, Chat GPT se lleva el título de ser la más conocida, siendo una herramienta versátil con más de 400 millones de usuarios activos a la semana. Aunque no todo es positivo, expertos advierten sobre problemas de ciberseguridad que puede devenir el uso de esta plataforma debido a su privacidad y calidad informativa.
Los peligros de ChatGPT
Hay algunas preguntas que no deberían de hacerse en estos sistemas de inteligencia artificial ya que pueden ser un riesgo para el usuario, pero también para su entorno personal o laboral. WeLiveSecurity es el portal oficial de la empresa de ciberseguridad ESET, que recordarás por su famoso antivirus y que ha advertido sobre los peligros del uso indiscriminado de la IA. En esta ocasión han proporcionado una serie de advertencia para el buen uso de la IA, siendo los mayores riesgos cuando se comparte información sensible o confidencial.
Y es que la ciberdelincuencia no descansa, por eso los delincuentes digitales han visto como a la gallina de los huevos de oro a ChatGPT y otras herramientas similares para el robo de datos. Incluso se han encontrado en la deep web - específicamente en la dark web, la porción oculta de internet donde conviven usos legítimos con actividades ilegales - cuentas bancarias robadas en comercialización. Por eso los expertos han advertido que ninguna plataforma de inteligencia artificial asegura un entorno cifrado, por lo que no se debe compartir datos personales. Contraseñas, datos bancarios, números de identificación o datos médicos supone exponer esta información a posibles intrusos y al procesamiento interno del sistema.
Lo que no debes hacer con la IA
Tampoco debes compartir información que sea propiedad de una empresa, ya sean reportes financieros, estrategias comerciales o listas de clientes en chats de IA pública. Estos datos pueden filtrarse, almacenarse en servidores externos y copiarse, sin que puedas volver a tener control sobre ellos. En WeLiveSecurity han advertido también los riesgos de buscar respuestas en campos como la salud, las finanzas o el derecho. ChatGPT puede interpretar de forma errónea tratamientos médicos, diagnósticos, síntomas, decisiones legales o inversiones, debido a que la plataforma no tiene el acceso integral al contexto personal de cada usuario. Las repuestas carecen de reconocimiento profesional y no reemplaza la asistencia personalizada de especialistas de la materia con formación específica. Es fundamental usar la inteligencia artificial con cabeza para no tener problemas en el futuro debido a esta reciente revolución tecnológica.