Tammy Parra genera debate en redes por el uso de ChatGPT como psicólogo, ¿tú lo utilizarías?
Más allá del escándalo digital, el debate abre una grieta incómoda: la precariedad emocional, la falta de acceso a terapia y el riesgo de normalizar atajos peligrosos

Tammy Parra-chat gpt / instagram
Tammy Parra confesó que utilizó ChatGPT como si fuera su psicólogo en un momento de ansiedad y miedo, y la reacción fue inmediata: críticas, alertas y una discusión que va mucho más allá del personaje. El tema central no es la influencer ni la inteligencia artificial, sino qué pasa cuando la salud mental se vuelve inaccesible y la IA parece la única escucha disponible.
La escena es conocida: una figura pública comparte una experiencia personal, el algoritmo amplifica el mensaje y, de pronto, la anécdota se convierte en modelo. Tammy explicó que, sin recursos para pagar terapia, recurrió a ChatGPT como apoyo emocional. Incluso detalló cómo lo usaba y compartió un prompt, como si se tratara de un tip de productividad o bienestar.
Ahí es donde el gesto íntimo cruza una frontera delicada. No por hablar de ansiedad, eso siempre suma, sino por presentar a una inteligencia artificial como sustituto de un psicólogo, aunque sea de manera implícita.

Tammy Parra-recomienda Chat GPT / internet

Tammy Parra-recomienda Chat GPT / internet
ChatGPT no es un psicólogo y nunca lo será
Conviene decirlo sin rodeos, con la claridad que exige un tema serio: ChatGPT no es un profesional de la salud mental. Puede ordenar ideas, ofrecer explicaciones generales o servir como diario escrito, pero carece de elementos esenciales que definen a la terapia real.
Lo que una IA no puede hacer
- No diagnostica ni evalúa riesgos clínicos.
- No detecta señales de alarma como ideación suicida, crisis severas o trastornos complejos.
- No asume responsabilidad terapéutica ni ofrece seguimiento humano.
- No construye un vínculo clínico, clave para cualquier proceso psicológico.
- Puede generar dependencia emocional, especialmente en personas vulnerables.
El peligro no está en escribirle una vez, sino en creer que eso basta.
La trampa de la “escucha disponible”
¿Por qué tantas personas consideran a la IA como refugio emocional? La respuesta es incómoda, pero evidente: la terapia sigue siendo cara, escasa y estigmatizada. Para muchos jóvenes, acudir a un psicólogo no es una opción realista, sino un privilegio.
En ese vacío, cualquier herramienta que “responda”, que no juzgue y esté disponible a las tres de la mañana, resulta tentadora. ChatGPT escucha sin cansarse, pero no contiene, no acompaña y no interviene cuando la mente se desborda.
El problema no es Tammy Parra, es el mensaje que se replica
Reducir la discusión a si Tammy Parra “lo hizo bien o mal” es quedarse en la superficie. El verdadero foco debería estar en la romantización del “me salvé solo con IA”, un relato peligroso cuando se habla de salud mental, ansiedad o miedo constante.
Convertir esa experiencia en consejo viral puede invisibilizar una verdad urgente: nadie debería sentirse obligado a elegir entre su estabilidad emocional y su economía.
¿Sirve ChatGPT como apoyo emocional? Sí, pero con límites
Usar ChatGPT para desahogarte, escribir lo que sientes o entender conceptos básicos de emociones no es algo negativo en sí mismo. Puede funcionar como complemento, como primer paso o como herramienta de reflexión.
El problema aparece cuando se le otorga un rol que no le corresponde. La IA no sustituye la terapia, ni el contacto humano, ni la intervención profesional.

Viviana Hernández Bran
Licenciada en Comunicación y Periodismo por la FES Aragón, UNAM. Creadora de contenido escrito y digital...


