La inteligencia artificial (IA) está transformando profundamente el ejercicio de la psicología contemporánea, siendo un catalizador epistemológico que redefine la praxis clínica, la investigación y relación terapéutica. Sin embargo, no está exenta de dilemas éticos que cuestionan la esencia misma del acto terapéutico. Así pues, a continuación profundizaremos sobre un concepto conocido como PHI, y lo que se debería implementar para evitar vulneraciones de confidencialidad por la IA.

El equilibrio entre la innovación tecnológica y la responsabilidad ética

La integración de chatbots y otras aplicaciones de IA en la psicoterapia influye significativamente en la dinámica de confianza y en las relaciones entre pacientes y psicoterapeutas. Y es que, la recopilación y almacenamiento masivo de datos emocionales y conductuales por parte de estas tecnologías exigen una reflexión crítica sobre las medidas de seguridad y privacidad implementadas (Ma et al., 2024).

Confidencialidad e IA

En cuanto a lo anterior, y para evitar vulneraciones, es imperativo que los profesionales de la psicología adopten una postura crítica y proactiva. Asegurando, de esta forma, que la implementación de la IA en su práctica respete y preserve los principios fundamentales de la ética y confidencialidad clínica (Weiner et al., 2024).

Recomendaciones para preservar la confidencialidad en IA

Mandal et al. (2025) destacan la importancia de aplicar técnicas como el aprendizaje federado y la generación de datos sintéticos para minimizar los riesgos de filtraciones de datos personales en modelos de IA aplicados a la salud mental. Estas estrategias permiten que los modelos aprendan sin necesidad de acceder directamente a los datos originales de los pacientes. Reduciendo, por ende, las posibilidades de vulneraciones de privacidad.

Ahora, para garantizar la confidencialidad al usar la IA y el cumplimiento normativo, hay que:

  • Evitar compartir información personal identificable (Protected Health Information, PHI, en inglés): No introducir nombres, detalles de contacto u otra información sensible de la persona.
  • Configurar adecuadamente las opciones de privacidad: Desactivar la opción que permite el uso de los datos para el entrenamiento del modelo y utilizar chats temporales que no se almacenan.
  • Implementar medidas de seguridad adicionales: Usar autenticación de dos factores y restringir el acceso a las plataformas de IA a personal autorizado.

Un concepto crucial, ¿qué son los PHI?

Según la normativa de Portabilidad y Responsabilidad de Seguros de Salud (Health Insurance Portability and Accountability Act, HIPAA, en inglés), es cualquier dato de salud individualmente identificable que es creado, recibido, almacenado o transmitido por una entidad cubierta. Por ejemplo, hospitales, clínicas, psicólogos, terapeutas, aseguradoras de salud, etc.

Lo anterior incluye información que relaciona la identidad del individuo (directa o indirectamente). Es decir, está asociada con la salud física o mental de la persona, y se refiere a la prestación de servicios de salud o al pago de dichos servicios (Rahsepar Meadi et al., 2025).

Ejemplos de PHI:

  1. Identificadores personales:
    • Nombre completo o iniciales combinadas con otro dato (por ejemplo, Juan P. García).
    • Dirección completa (incluyendo código postal).
    • Números de teléfono y fax.
    • Correo electrónico.
    • Número de seguro social o DNI.
    • Fecha de nacimiento, fechas de ingreso/alta hospitalaria o de fallecimiento.
    • Identificadores biométricos (por ejemplo, huellas dactilares, reconocimiento facial).
  2. Información médica:
    • Diagnósticos médicos (por ejemplo, trastorno de ansiedad generalizada, TLP).
    • Informes de pruebas médicas (por ejemplo, resonancias magnéticas, análisis de sangre).
    • Registros de tratamiento (por ejemplo, psicoterapia, medicamentos recetados).
    • Notas de progreso de sesiones terapéuticas.
  3. Información relacionada con el pago:
    • Facturas o recibos médicos.
    • Detalles de cobertura del seguro médico.
    • Historial de pagos por servicios médicos.
  4. Identificadores indirectos:
    • Fotografías del paciente o cualquier imagen que pueda revelar su identidad.
    • Información genética.
    • Cualquier otro dato que, al combinarse con otros, pueda identificar al paciente (por ejemplo, diagnóstico + ubicación geográfica + fecha de ingreso).

Principios para el psicólogo del siglo XXI

PHI

Para incorporarse de manera ética y efectiva en la práctica psicológica, la IA debe ser una herramienta que complemente y potencie la capacidad clínica humana, pero nunca la reemplace. En este sentido, es fundamental que los sistemas de IA sean transparentes, comprensibles y auditables, permitiendo a los profesionales entender y explicar las decisiones que estos generan.

Además, la tecnología debe utilizarse para liberar tiempo y recursos, facilitando que el profesional pueda profundizar en la relación empática con sus pacientes. Por otro lado, también es ideal que quienes las utilicen adquieran competencias específicas relacionadas con la IA a través de una formación continua, lo que les permitirá evaluar críticamente su uso y mantenerse actualizados en un campo en constante evolución. Por último, la implementación de la IA debe considerar su impacto en la justicia social, promoviendo la equidad y el acceso a los servicios psicológicos, y evitando reproducir desigualdades existentes.

Conclusión

Solo con lo dicho, al integrar la tecnología sin abdicar del rigor ético, la psicología podrá mantenerse fiel a su misión fundacional, la protección y promoción del bienestar humano en todas sus dimensiones. En fin, la solución no reside en limitar el uso de la IA, sino en integrarla de manera consciente, consciente de sus potencialidades y de sus peligros.

Y esto hacerlo, claro, sin abdicar de los principios éticos, como la confidencialidad de los PHI, que sostienen la práctica clínica. Porque si el instrumento se sofistica, pero el criterio se diluye, corremos el riesgo de automatizar la técnica y deshumanizar la escucha. La clave está en que la tecnología amplifique la sensibilidad clínica, no que la sustituya.

Referencias bibliográficas

  • Amram, B., Klempner, U., Shturman, S. y Greenbaum, D. (2023). Therapists or Replicants? Ethical, Legal, and Social Considerations for Using ChatGPT in Therapy. The American Journal of Bioethics, 23(5), 40-42. https://doi.org/10.1080/15265161.2023.2191022
  • Ma, L., Zhao, T., Qiu, H. y Lan, Z. (2024). No general code of ethics for all: Ethical considerations in human-bot psycho-counseling. arXiv preprint arXiv:2404.14070. https://arxiv.org/abs/2404.14070
  • Mandal, A., Chakraborty, T. y Gurevych, I. (2025)Towards privacy-aware mental health AI models: Advances, challenges, and opportunities. arXiv. https://doi.org/10.48550/arXiv.2502.00451
  • Rahsepar Meadi, M., Sillekens, T., Metselaar, S., van Balkom, A., Bernstein, J. y Batelaan, N. (2025). Exploring the Ethical Challenges of Conversational AI in Mental Health Care: Scoping Review. JMIR mental health12, e60432. https://doi.org/10.2196/60432
  • Weiner, E. B., Dankwa-Mullan, I., Nelson, W. A. y Hassanpour, S. (2024). Ethical challenges and evolving strategies in the integration of artificial intelligence into clinical practice. arXiv preprint arXiv:2412.03576. https://arxiv.org/abs/2412.03576