Privacidad Sintética
En estos días de descanso, ante la posibilidad de darme un tiempo para interactuar con diversos aplicativos disponibles al público en general que utilizan inteligencia artificial como parte de la funcionalidad directa de sus servicios, haciendo referencia principalmente al uso de chats conversacionales, como chat GPT y , de los cuales destaco la funcionalidad del primero, pero que, me gustaría compartir la respuesta a la pregunta relativa al aviso de privacidad y la forma en que se protegen los datos personales de las personas usuarias del chat, a lo cual, las plataformas señalaron de manera generalizadas respuestas del tipo que se transcriben a continuación: “…Como un modelo de lenguaje, no tengo una aplicación ni utilizo datos personales de ningún tipo. Mi función es ayudar a las personas a obtener respuestas a sus preguntas y brindar información general sobre una amplia variedad de temas. No tengo acceso a datos personales ni utilizo ningún tipo de información personal para realizar mi trabajo. Si tienes preguntas sobre cómo proteger tus datos personales, puedo intentar ayudarte proporcionando información general sobre el tema. ¿Te gustaría que profundice más en este tema?…”, respuesta que considero como la principal ceguera de taller que hoy en día tienen las tecnológicas (no sólo en torno a inteligencia artificial) en el sentido de rehuir al cumplimiento regulatorio en vez de identificar las tendencias que requieren modulaciones específicas en torno a la regularidad normativa en torno al uso de determinados aplicativos, pero que no constituyen excepciones para su debida observancia, es decir, prefieren evitar la legislación en una materia en vez de identificarse de manera específica dentro del contexto para buscar soluciones normativas ajustadas a sus necesidades, lo cual, no solamente genera incumplimientos potenciales, sino grandes riesgos para la población usuaria.
En los extremos de la protección de la privacidad contemporánea, cuando menos desde mi perspectiva, encontramos en cuando al uso potencial y no registrado previamente a lo que he denominado en este espacio como privacidad cuántica en torno al manejo de datos dinámicos que se vinculan de manera íntima con las libertades fundacionales de las personas, y que, como contraparte, tiene como extremo opuesto limítrofe, lo que denominaría como privacidad sintética, definición que se sugiere tomando como base mecanismos actuales de privacidad diferencial a través del uso de algoritmos, principalmente basados en inteligencia artificial y en muchos casos orientados a su funcionamiento, y que en sustancia implica disociar los identificadores y dar la posibilidad para su uso intensivo a través de copias no reales de dichos datos, lo cual, sería más propio asociarlo a datos modificados o transformados, que se denominan como datos sintéticos y que, a partir de la creación de nuevos datos tomando como parámetro datos derivados de personas reales, posibilitan su uso para el análisis respectivo y explotación sin tomar en consideración legislaciones en materia de protección de datos personales como lo son la Ley de Privacidad del Consumidor de California, el Reglamento Europeo de Protección de Datos, y, en el caso de México, la legislación en materia de protección de datos personales; aseveración que conviene señalar desde este momento, deviene imprecisa puesto que, más bien al tratarse de datos que se refiere, han sido anonimizados, pierden la cualidad de personales, no obstante, al existir un vínculo con éstos, debe tenerse cuidado de no generalizar.
Siguiendo con el paralelismo base sobre los datos sintéticos, quisiera tomar como ejemplo tres gradualidades de datos sintéticos pasando de la menor a la mayor intrusión en la privacidad de las personas, siendo los primeros los datos simulados que pueden tomar o no como referencia ciertos datos personales; en un segundo nivel, los datos generados a partir de reglas, y como último nivel los sintéticos generados por algoritmos de inteligencia artificial que generarían conforme la expectativa, datos gemelos pero anonimizados.
Como la lógica en la narrativa y la referencia nominal lo indica, podemos advertir que los datos simulados que no toman como referencia datos personales serían los únicos que escaparían de la regulación, siempre y cuando, su uso no se asocie potencialmente a una persona usuaria en particular, lo cual, de ser el caso entraría como parte de la funcionalidad, tratamiento, y, eventualmente bajo el concepto de privacidad cuántica al que se ha hecho referencia, sin embargo, me gustaría abordar que en un principio los datos simulados o ficticios que toman como referencia datos personales, implican un riesgo básico en función de las reglas observadas en torno al tratamiento de los datos personales que se toman como base para la emulación, lo cual, no se traslada directamente sobre los resultados de los datos (aunque sigue manteniendo cierto grado de riesgo en caso de que se pudieran asociar nuevamente conforme se señalará para los otros dos niveles), pero que representa un nivel alto si no se toman las medidas pertinentes para la protección de los datos que se utilizan de manera análoga, sobre todo, porque, como es de esperarse, en función de las respuestas obtenidas con su procesamiento, será necesario modificar su estructura y para ello, se hace necesario nuevamente espejear hacia dicha información.
En lo que respecta a los otros dos niveles el riesgo se materializa directamente en la relación insumo – producto, generando en el segundo nivel, en torno a los datos sintéticos generados a partir de reglas, el dilema permanente que existe en torno a los procedimientos de disociación y la re identificación potencial de la población usuaria que se puede dar por múltiples factores que se desprenden no sólo de las propias reglas utilizadas, sino inclusive de las técnicas utilizadas para la disociación y los riesgos inherentes al propio tratamiento base; lo cual, a su vez, tratándose del tercer nivel, es decir, con el uso de la inteligencia artificial, suma a los riesgos anteriores la estructura adecuada del algoritmo y los mecanismos de seguridad del sistema, así como los principales riesgos de carácter cualitativo en torno a la inteligencia artificial, como son los sesgos.
Desde dicha óptica, puede advertirse en principio que el ámbito de protección de datos y privacidad se mantiene presente en torno a los datos sintéticos, sin embargo, la protección de la privacidad sintética va más allá puesto que, en función de los resultados obtenidos, dicha información volverá, en la mayoría de los casos y en la inteligencia de que los servicios o productos orientados a personas constituirán la aplicación práctica de las pruebas que en su momento utilizaron datos sintéticos, o, que, una vez cumplido el ciclo de seguridad tendrán como salida o punto de destino un usuario, aún cuando éste no se identificara de manera directa, sino a través de datos modificados, como podrían ser en su caso avatares, como sucede en el metaverso, dicha información eventualmente además, también sería un insumo para su tratamiento ulterior.
Sin embargo, a diferencia de la privacidad cuántica que tendría por objeto proteger el derecho a la autodeterminación potencial de las personas usuarias, la privacidad sintética se perfilaría como la protección que debe darse a los mecanismos instaurados para la protección de la privacidad de los usuarios y cuyo principal exponente puede darse a través de la generación y mal uso de las deepfakes o la suplantación de identidad a través de aprendizaje profundo de inteligencia artificial, sobre datos reales o enmascarados manipulados y que den cuenta de aspectos que puedan ser asociados a una persona.
Es así que 2023 si bien se enfila en el rumbo correcto de proteger a las personas bajo un enfoque centrado hacia el ser humano, y con diversas herramientas como lo son evaluaciones de conformidad sumadas a las evaluaciones de impacto a la privacidad y de protección de datos, la estandarización de la privacidad por diseño; también es momento de identificar hacia dónde se van perfilando los riesgos que el derecho, la ética y la técnica tienen que enfrentar juntos para que dicho objetivo y enfoque sean posibles. Aprovecho la oportunidad de este espacio para agradecer su preferencia, deseándoles que este nuevo año esté lleno de éxitos, logros y satisfacciones, y que para ello, nuestros derechos en la era digital puedan contribuir de manera efectiva para el logro del bien más deseado como lo es la felicidad. Próspero año 2023 estimadas lectoras y estimados lectores.