La digitalización de sectores sensibles como el de la salud,… View Article
La digitalización de sectores sensibles como el de la salud, educación, acción social, la investigación periodistica y académica, ha desplazado el centro de gravedad del poder hacia quienes diseñan y gestionan los sistemas que tratan datos personales. En este contexto, la protección de la vida privada ya no puede entenderse como un ajuste posterior ni como una simple obligación normativa.
La privacidad se juega antes de que exista una línea de código, en el momento en que se decide qué dato es necesario, para qué finalidad y con qué consecuencias humanas. Cuando estos elementos no se piensan desde el inicio, los sistemas pueden funcionar técnicamente bien y, sin embargo, producir daños duraderos e invisibles.
El Privacy by Design, aplicado con rigor, no es solamente una formalidad jurídica: es una herramienta de calidad, de resiliencia y de responsabilidad deontologica.
Cuando la protección de datos es una arquitectura, no un parche
En el trabajo cotidiano de concepción y auditoría de plataformas digitales en ámbitos como la e-salud, la educación digital o los dispositivos de investigación social, aparece una constante: muchos proyectos cumplen formalmente con la normativa, pero fallan en su diseño estructural. La protección de datos no puede limitarse a avisos legales, formularios de consentimiento genéricos, o medidas técnicas aisladas. Esta proteccion debe formar parte de la arquitectura del sistema es decir, una definición precisa de finalidades, minimización estricta, control de accesos, temporalidad del tratamiento y capacidad real de supresión o transformación de los datos cuando el contexto cambia.
Cuando estos elementos no están integrados desde la concepción, el riesgo no es solo jurídico; es humano.
El enfoque centrado en la persona: más allá del cumplimiento
El Human-Centered Approach parte de una premisa simple y a menudo olvidada: los datos no son neutros. Siempre remiten a personas situadas en contextos sociales, emocionales y familiares específicos.
Aplicar este enfoque implica preguntarse, desde el inicio:
- Quién puede verse afectado indirectamente por la difusión de un dato,
- Qué efectos puede producir esa exposición a medio o largo plazo,
- Investigar si existen alternativas menos intrusivas que permitan cumplir la finalidad sin generar daño.
En entornos sensibles, identificar a terceros no protagonistas, conservar datos por inercia ( datos médicos por ejemplo) o privilegiar criterios narrativos sobre la proporcionalidad puede tener consecuencias irreversibles. El enfoque centrado en la persona busca precisamente evitar que los sistemas produzcan víctimas colaterales.
Los fallos invisibles de muchos sistemas digitales
Una observación recurrente en auditorías de privacidad es que las fallas más graves no son técnicas, sino conceptuales y aparecen cuando:
- Se identifica nominalmente a personas cuya identificación no es necesaria,
- Se presume un consentimiento válido sin analizar el contexto en el que fue obtenido,
- o se mantiene un tratamiento de datos aunque la finalidad original haya desaparecido.
Estos fallos suelen pasar desapercibidos hasta que los contenidos circulan internacionalmente, se cruzan jurisdicciones o se activan derechos de personas residentes en otros marcos legales. Entonces, lo que parecía una decisión menor se convierte en un problema sistémico.
Aprendizajes a partir de un caso de resolución transfronteriza (enfoque anonimizado)
En una intervención reciente, fue necesario analizar un conflicto relacionado con la difusión internacional de datos personales sensibles que afectaban a una persona no protagonista de un contenido de alto impacto.
Sin entrar en detalles identificables, este caso permitió constatar que:
- La identificación nominal no era indispensable para la comprensión del contenido,
- La anonimización no alteraba su coherencia ni su valor informativo,
- y que una auditoría basada en principios de Privacy by Design permitía resolver el conflicto sin cuestionar los hechos.
Este tipo de resolución demuestra que la protección de datos no es incompatible con la información, sino una condición de su calidad ética y técnica.
De los principios a la práctica: una metodología aplicada
La aplicación efectiva de la Privacidad por defecto (Privacy by Design) y del enfoque centrado en la persona requiere una metodología clara:
Antes del diseño
- ¿Es este dato estrictamente necesario?
- ¿Qué impactos humanos puede generar en un horizonte de años?
- ¿Existen alternativas menos intrusivas?
- anonimización o seudonimización por defecto,
- compartimentación de accesos,
- trazabilidad de las decisiones relacionadas con datos personales.
Después del despliegue
- mecanismos reales para el ejercicio de derechos,
- capacidad de adaptación del tratamiento,
- supresión efectiva cuando la finalidad ya no existe.
Sin estos elementos, la protección de datos se queda en el plano declarativo.
La privacidad como criterio de calidad
La privacidad no es un obstáculo para la innovación ni una concesión excepcional. Es un criterio de calidad de los sistemas digitales y un factor central de confianza.
Los dispositivos concebidos desde el inicio con Privacy by Design y un enfoque centrado en la persona son más robustos, más legítimos y más sostenibles. Protegen a las personas, pero también a las organizaciones que los desarrollan y gestionan.
Pensar la tecnología desde la antropología de la privacidad no es un lujo teórico, es una necesidad práctica en un ecosistema digital cada vez más complejo y expuesto.
Sobre la autora
Andrea Naranjo Gamarra es antropóloga y trabaja en la concepción y auditoría de plataformas digitales en sectores sensibles, integrando análisis antropológico, Privacy by Design y enfoque centrado en la persona para promover sistemas tecnológicos éticos, responsables y resilientes
#DataPrivacy