En el evento Febraban Tech 2023, nuestra socia fundadora, Patricia Peck, habló sobre IA y LGPD, con puntos sobre cómo se debe educar a la Inteligencia Artificial para que siga las pautas de la Ley General de Protección de Datos (LGPD).
por patricia pico, socio fundador de Peck Advogados y profesor de Derecho Digital de la ESPM
antes de Ley General de Protección de Datos (LGPD), sólo hubo un sentimiento de lo legítimo o ilegítimo en el tratamiento de datos. La ley, según Jardel Luis Carpes, Director Ejecutivo Interino de Riesgos de Caixa, la ley vino a decir que lo legítimo es lícito y viceversa.
“El mundo es mucho más digital y eso hace que los datos estén más dispersos, dentro y fuera de la empresa, en un mundo cada vez más multinube. Con esta explosión de información de datos terminamos evolucionando para poner la automatización y la IA incluso en el desarrollo de inteligencia y algoritmos. Hoy tenemos tecnología que reconoce que estoy hablando de un CPF y ya lo enmascara hasta para el desarrollador, por ejemplo”, comenta. Marcela Vairo, Directora de Datos, Inteligencia Artificial y Automatización de IBM BrasilEn Febraban Tecnológico 223.
Aún así, dice, no existe una solución única para todos: no existe un remedio único para todos. Las empresas deben detenerse y pensar en su arquitectura de datos y ver cuál es la mejor solución para este gobierno.
“Tenemos una base de datos enorme y es un desafío. Nuestra estrategia desde un principio, cuando se empezó a debatir una ley de protección de datos, fue empezar a trabajar sobre unos pilares: la seguridad de la información (evitar que los datos lleguen a manos de personas que no deberían tener acceso a los datos); establecer la gobernanza y entender los tratamientos para verificar en conjunto los principios de la LGPD y esto fue lo más difícil, porque no es fácil para una empresa con diferentes negocios poder mapear dentro de cada actividad; y el cumplimiento del derecho de los titulares (sin el segundo pilar, no podríamos dar una respuesta a cada titular sobre qué hacemos con sus datos y qué datos)”, detalla Jardel.
Leer más: Marina Silva: 'ni las más altas tecnologías prescinden de la preservación'
Patricia Peck Pinheiro, directora general de Peck Abogados, dice que la LGPD es una legislación que viabiliza las relaciones. “Es una ley protectora, no una prohibición. Pero no es de todos modos, no es que vaya a hacer nada más con la fiesta de los dados. Cuando usamos el reconocimiento facial, por ejemplo, usamos algoritmos que tienen aplicaciones que pueden estar sesgadas. Todo tiene un lado bueno y puede tener algún riesgo”.
La discusión sobre la LGPD y la Inteligencia Artificial es un tema candente y, por Miriam Wimmer, directora de la Autoridad Nacional de Protección de Datos (ANPD), dada la amplitud de datos personales a la ley, prácticamente cualquier información puede ser personal.
“LGPD es una norma que, para tratar datos personales, es necesario ver si existe una hipótesis en la ley que autorice el tratamiento. Y el consentimiento no es la mejor ni la única hipótesis. El consentimiento de la LGPD es altamente calificado: debe ser libre, informado, inequívoco y revocado. Vemos que en determinadas situaciones en las que se solicita el consentimiento, el usuario no puede revocarlo sin que le afecte negativamente”, advierte.
Según la especialista, en el caso de la IA es un cuidado y una reflexión que hay que hacer con antelación. “Quiero tener un perfil de quién es buen pagador, o ver fraude, ¿qué base legal voy a adoptar para alimentar este sistema y tener resultados útiles? Creo que es un debate inconcluso y tal vez no haya una respuesta única”.
Además, agrega Marcela, la IA necesita explicabilidad en sus modelos. Si la tecnología te está diciendo que otorgues un crédito o no, o está revisando un currículum, ¿qué hay detrás de ese algoritmo? La tecnología elegida debe ser capaz de explicar el por qué de esa decisión o resultado.
El segundo punto, según el especialista de IBM, es entender si la empresa tiene derecho a utilizar los datos y si han sido anonimizados dentro de una aplicación. Tercero, sesgos. “Tengo que tener herramientas que monitoreen los algoritmos de IA y muestren que está sesgado para poder hacer los cambios. El último punto es la confianza en el modelo. Tengo que tener algoritmos y herramientas para no tener la alucinación de la IA. Tengo que tener gobernanza para confiar y poder adoptar cada vez más la IA dentro de la empresa y en el proceso”.
Jardel trae la discusión sobre por qué es la privacidad por diseño. Para él, también es una cuestión financiera. “Es más eficiente y puedes ganar dinero y perder menos dinero con él. Cuanto más tarde tenga que adoptar un cambio más radical, más cuesta ese cambio y menos eficiente se vuelve el proyecto. Cada vez que lanza un producto financiero y comienza a pensar en la privacidad y piensa en cómo está tratando los datos solo al final, seguramente tendrá un gasto muy grande y gastará más dinero”.
Patricia termina la conversación diciendo que ya no hay lugar para empresas que no viven de manera ética y transparente. “Vivimos en una sociedad de sobreexposición”.
fuente: Foro de TI