Por Julieta del Río*
No tengo rechazo a la tecnología ni asumo una postura alarmista. La IA puede ser una herramienta útil para mejorar el funcionamiento del aparato público o la productividad en una empresa. Pero debemos ser conscientes de que su uso no es neutral ni automático. Depende de decisiones humanas, de marcos normativos y de recursos institucionales. Por eso, la discusión sobre privacidad en tiempos de inteligencia artificial no puede limitarse a lo técnico o a la aplicación de leyes. Es, en el fondo, una discusión sobre límites: hasta dónde puede llegar el uso de la información personal y en qué condiciones debe ser controlada. Si bien en la era digital el poder puede ejercerse a través de procesos que no vemos, entonces defender la privacidad se convierte en una tarea prioritaria para la sociedad. Con esto me refiero a que, en un entorno donde somos cada vez más vigilados, la protección de la privacidad es vital para mantener nuestra esfera de libertad.
¿Quién puede usar nuestros datos personales?
En la vida cotidiana, como personas que usamos tecnologías digitales, compartimos información de nuestra vida privada de manera constante, en la mayoría de las ocasiones sin detenernos a pensar en ello. Es, por así decirlo, casi un acto inconsciente. Estas costumbres van dejando rastros, indicios que pueden ser registrados, recolectados y posteriormente utilizados por terceros. Sin embargo, estos registros fueron concebidos en sus inicios como información dispersa, carente de conexión y, por lo tanto, no reflejaban un panorama completo de las costumbres de las personas en línea. Pero, con el desarrollo de la digitalización, los datos ya no solo se almacenan: también se procesan, se cruzan y se convierten en insumos para la toma de decisiones. Dicho de otro modo, ya no se trata de simples datos, sino de información que dejó de ser estática para convertirse en activos dinámicos que reconfiguran las reglas de juego de la vida social (Kitchin, 2014). Hoy en día, con el avance de la IA, es posible organizar una visión más amplia de las personas a partir de la información que se recolecta de las prácticas digitales.
Ante este novedoso escenario, la primera pregunta que surge es muy simple: ¿quién puede utilizar nuestra información personal? Pero la respuesta no es tan sencilla, porque en las dinámicas de la era digital participan distintos actores con recursos y fines diferentes. Por ejemplo, las instituciones públicas recaban información de la sociedad para llevar a cabo diversas funciones, como la ejecución de un programa social o la garantía del derecho a la salud. El uso institucional está justificado por las propias políticas de los Estados y regulado por leyes, principios y acuerdos que posibilitan un equilibrio entre eficiencia gubernamental y libertad personal. Por lo tanto, las leyes no operan solo como reglas restrictivas, sino también como mecanismos de rendición de cuentas que legitiman el actuar de los gobiernos, de tal forma que la privacidad se convierte en un valor social que previene el uso arbitrario del poder al establecer límites para su procesamiento (Bennett & Raab, 2006).
Ahora bien, no basta con identificar a los actores que recolectan datos de la vida privada de los usuarios. Es necesario preguntarnos: ¿para qué se utilizan los datos personales cuando se emplean procesos desarrollados con inteligencia artificial? Como se mencionó al inicio de este apartado, tradicionalmente la información personal se recababa para fines claramente establecidos, como en el sector educativo, donde en algunas ocasiones se utiliza para gestionar procesos de inscripción de estudiantes, administrar la matrícula o hacer cambios a sus programas educativos. Bajo la lógica de Mayer-Schönberger y Cukier (2013), con el avance de la tecnología, los datos pueden ser reutilizados, combinados y analizados con fines que van más allá de su propósito original. El valor de un dato no se agota en su uso primario, sino que reside en sus posibles usos secundarios. Y es precisamente en ese plano donde el titular de los datos ya no tiene control alguno sobre su información personal.
Con la integración de tecnologías que utilizan IA, la información de la vida privada permite conocer patrones y clasificar perfiles tanto en el ámbito público como en el privado. Desde esta perspectiva, los algoritmos pueden pronosticar zonas de riesgo para la puesta en marcha de un programa social por parte del gobierno o determinar el contenido que aparece en el desplazamiento de una pantalla. Este proceso ha sido descrito como una transformación en la forma en que se organiza y utiliza la información, donde el análisis masivo de datos permite nuevas formas de intervención sobre la realidad social (boyd & Crawford, 2012). Esto implica que el acceso a grandes volúmenes de datos cambia la forma en que entendemos el mundo y, por lo tanto, la manera en que intervenimos en él. En otras palabras, esta situación transforma la manera en que tanto el Estado como la iniciativa privada organizan la información.
Desde una perspectiva jurídica, el uso de información personal está sujeto a principios como la finalidad, la proporcionalidad y el consentimiento. Es decir, la información debe recabarse para un propósito legítimo, utilizarse de manera adecuada y contar, en determinados casos, con la autorización de la persona titular de los datos. En el caso de México, además de la Constitución, existe un marco jurídico especial que integra estos principios: la Ley Federal de Protección de Datos Personales en Posesión de los Particulares, para la regulación de cualquier persona física o moral de carácter privado, y la Ley General de Protección de Datos Personales en Posesión de Sujetos Obligados, con aplicación en autoridades, dependencias, órganos autónomos y cualquier entidad que utilice recursos públicos. Sin embargo, la aplicación de estos principios enfrenta grandes obstáculos cuando los datos personales son utilizados en entornos de IA, donde los procesos son más complejos, dinámicos y, a veces, su rastreo es casi imposible. Incluso antes del auge masivo de esta tecnología, autores como Greenleaf (2018) ya advertían que las leyes enfrentarían serias dificultades ante la opacidad y el dinamismo de los sistemas de procesamiento automatizado.
A esto se suma una cuestión que, si bien ya ha sido puesta sobre la mesa de discusión desde hace algunos años, no ha sido estudiada a profundidad: la diferencia de capital entre quienes producen información proveniente de la vida privada y quienes la recolectan y utilizan. Con esto me refiero a que los usuarios de las tecnologías digitales producen información de manera constante, pero no siempre tienen control sobre su uso ni capacidad para cuestionarlo. En cambio, quienes diseñan, operan y administran los sistemas que procesan esa información cuentan con una gran cantidad de recursos: personal, herramientas y conocimientos que les permiten extraer valor de los datos.
No se trata de afirmar que todo uso de datos es indebido o que la IA es perjudicial para la privacidad humana. Esta sería una simplificación que perdería de vista el panorama completo del fenómeno. El uso de los datos personales puede hacerse de manera legal e incluso, en algunos casos, es necesario para el beneficio de la sociedad. La discusión de fondo no debe girar en torno a la autorización formal del uso de los datos. Como se ha explicado, el problema es más amplio: implica analizar las condiciones de recolección, los fines, los actores que intervienen y, sobre todo, las consecuencias que tales tratamientos pueden tener en la vida de las personas. No perdamos esto de vista: los datos ya no son simple información, sino también una forma de ejercer dominio sobre las personas.
Debemos entender que la privacidad no se agota en la protección de datos como un requisito legal. Esta perspectiva, que sigue vigente en el marco normativo, ha quedado superada por el actual ecosistema tecnológico y por las nuevas relaciones entre actores de poder y la sociedad. En la medida en que los datos se convierten en la base de decisiones automatizadas, también se convierten en un terreno donde se define quién tiene capacidad de decidir y en qué condiciones puede hacerlo.
La línea entre el uso de la inteligencia artificial y la protección de los datos personales es muy delgada cuando cae en manos malintencionadas o perversas; puede volverse peligrosa. Pero también lo es cuando en la política se usa con doble discurso para engañar con narrativas falsas, incrédulas, que al final del camino, vergonzosamente, han admitido los señalamientos usando inteligencia artificial. Y es que, cuando conviene, se presume la inteligencia artificial y, cuando no, se recurre a documentos, leyes o iniciativas que sustituyen el análisis, el estudio y la investigación. Al final, los datos y los números no mienten. Pero no basta con cuestionar. El dilema es cómo se regulará y el riesgo de la solicitud constante de datos personales sensibles para trámites y servicios. Lo más grave: el vacío y la opacidad de las autoridades que deberían encargarse de este tema ante la desaparición del Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI).
*Julieta del Río es ex comisionada del INAI, experta en fiscalización, acceso a la información, transparencia y protección de datos personales.
Las opiniones expresadas son responsabilidad de sus autoras y son absolutamente independientes a la postura y línea editorial de Opinión 51.

Comments ()