Un equipo de investigadores indios ha desarrollado una tecnología pendiente de patente para evitar filtraciones de identidad durante la edición de fotografías con IA. El sistema fue dirigido por Dipesh Tamboli, Vaneet Aggarwal y Vineet Punyamoorty de la Universidad Purdue, quienes desarrollaron la arquitectura básica. A ellos se unió el colaborador técnico Atharv Pawar de la Universidad de Michigan como coautor de la investigación, creando un canal que protege las imágenes personales antes de que se carguen en plataformas de inteligencia artificial de terceros.
Los investigadores hablaron sobre el proyecto en una conversación con HindustanTimes.com. Hablando de la inspiración detrás del proyecto, Dipesh explicó que “provino de un momento específico a principios de 2025, cuando Filtros de IA “estilo Ghibli” se volvió viral.
La tendencia viral de Retratos al estilo Ghibli Tomó por asalto las redes sociales la semana pasada, y los internautas pidieron a AI que editara sus imágenes en un estilo anime distinto. Mientras muchos amaban La nueva característica OpenAIalgunos calificaron la tendencia de “irrespetuosa” hacia el cofundador de Studio Ghibli Hayao Miyazakiquien anteriormente criticó la animación generada por IA como “un insulto a la vida misma” y dijo que “nunca querría incorporar esta tecnología en mi trabajo en absoluto”.
La inspiración detrás de la tecnología y por qué es única
“Millones de personas subían fotos personales para convertirlas en dibujos animados, pero al mismo tiempo, los gobiernos -incluido el gobierno indio- emitían advertencias urgentes sobre los riesgos de subir datos biométricos a servidores de terceros”, dijo Dipesh, un ex estudiante de doctorado, a HindustanTimes.com. “Fue un ‘impuesto a la privacidad’ masivo: para usar estas herramientas creativas, había que dar la cara. Me di cuenta de que una vez que se cargan datos biométricos de alta resolución, los usuarios pierden todo control sobre ellos. Empecé a pensar: ¿cómo podemos obtener estos sorprendentes resultados de la IA sin filtrar información personal? Esta pregunta me llevó a PrivateEdit”.
Con la llegada de las nuevas tecnologías, uno puede preguntarse qué tiene para ofrecer que nunca antes se haya visto. Dipesh tenía una respuesta a esta pregunta.
Leer más | OpenAI, Anthropic y Google unen fuerzas para combatir la copia de modelos de IA en China
“La mayoría de las herramientas de privacidad actuales son ‘reactivas’: intentan solucionar el problema después de enviar sus datos. PrivateEdit es ‘privacidad por diseño’. Hemos introducido una forma de ‘desacoplar’ su identidad del resto de la imagen. Lo realmente nuevo es que nuestra tecnología funciona con los grandes modelos de IA que ya utiliza, como Midjourney o ChatGPT, sin que necesiten cambiar nada. También hemos introducido un control deslizante de ‘confianza’ que devuelve el poder al usuario. manos; puede decidir exactamente cuánta información ocultar en función de su confianza en una plataforma específica. Se trata de una protección personalizada que hasta ahora no existía”, explicó.
¿Cómo funciona la tecnología?
Vineet, estudiante de doctorado en ingeniería informática y eléctrica, explicó en detalle cómo funciona la tecnología.
“Desarrollamos un canal que actúa como un ‘filtro seguro’ entre usted y la IA. En lugar de enviar su foto completa a la nube, nuestro sistema funciona primero localmente en su dispositivo”, explicó. HindustanTimes.com. “Utiliza una segmentación avanzada para encontrar las partes “sensibles a la identidad” de tu cara (los marcadores únicos que te definen) y coloca una máscara digital sobre ellas. Luego enviamos solo el “fondo” y la versión enmascarada a la IA. La IA hace las ediciones que solicitaste, luego la foto se envía de regreso a tu dispositivo, donde los detalles reales de tu cara se reinsertan de forma segura. La IA hace el trabajo, pero en realidad nunca “ve” tu verdadera cara”.
Es discutible si esta tecnología es sólo para expertos en tecnología o si los usuarios habituales de teléfonos inteligentes también pueden utilizarla. Dipesh dijo que estaban decididos a no convertirlo en un simple “experimento de laboratorio” y enfatizó que era fácil de usar.
“El objetivo es que se sienta como una aplicación de edición de fotografías estándar. No necesitas saber cómo funciona la IA o qué es la ‘segmentación’; simplemente usas un control deslizante simple para elegir tu nivel de privacidad, y la aplicación maneja el complejo ‘enmascaramiento’ y la ‘reconstrucción’ en segundo plano. La privacidad no debería ser una tarea ardua; debería ser tan simple como aplicar un filtro”, dijo.
Principales riesgos de privacidad asociados con las herramientas de edición de IA
Vaneet, investigadora y profesora Reilly de Ingeniería Industrial con nombramientos de cortesía en el Departamento de Ciencias de la Computación y la Escuela de Ingeniería Eléctrica e Informática de la Familia Elmore, dijo que el principal riesgo es la persistencia de los datos y la desviación de funciones.
“Muchos usuarios suponen que su foto se elimina una vez que se aplica el ‘filtro’, pero a menudo estos datos pasan a formar parte de una huella digital permanente utilizada para vigilancia, elaboración de perfiles o entrenamiento de futuros modelos sin consentimiento explícito. En el panorama actual, su identidad biométrica se explota como una mercancía. Es esencial avanzar hacia marcos de ‘privacidad por diseño’ como el que hemos desarrollado para garantizar que la revolución de la IA no se produzca a expensas de la autonomía humana fundamental”, explicó Vaneet, en cuyo grupo de investigación Dipesh y Vineet funcionó.
Leer más | Un economista doctorado dice que su trabajo ahora es eliminar los “guiones” de los escritos de IA: “El trabajo invisible de la economía de la IA”
Atharv, el colaborador técnico, explicó qué riesgos se pueden reducir utilizando la nueva tecnología de los investigadores de Purdue.
“Cuando subes fotos sin procesar, pueden almacenarse indefinidamente, filtrarse durante una violación del servidor o incluso usarse para crear ‘deepfakes’ sin tu permiso. Usando nuestro sistema de enmascaramiento, los datos confidenciales ni siquiera se transmiten a la nube. Esto también ayuda a las empresas; ahora pueden ofrecer herramientas fotográficas de IA a sus clientes sin la enorme responsabilidad legal y ética de almacenar los datos faciales privados de miles de personas”, dijo.
Atharv también afirmó que esta tecnología podría ser utilizada por grandes empresas como Adobe, Apple o Google, calificándola como “el futuro ideal para esta tecnología”.
“Como nuestro canal no requiere que las empresas modifiquen sus modelos de IA existentes, se puede integrar en las aplicaciones actuales como una” capa de privacidad “. Permitiría a estas grandes empresas de tecnología ofrecer características generativas asombrosas mientras dicen con orgullo a sus usuarios: “Ni siquiera vemos sus fotos sin editar. “Es beneficioso tanto para la reputación de la empresa como para la seguridad del usuario”, explicó.
Cómo esta investigación impacta el futuro de las regulaciones y leyes de IA
Vaneet señaló que los gobiernos de todo el mundo están luchando por regular la IA.
“La mayoría de las leyes se centran en lo que hacen las empresas después de obtener sus datos. Nuestro trabajo proporciona una vía técnica para la ‘minimización de datos’, un principio clave de las leyes de privacidad como GDPR. Al demostrar que podemos lograr resultados de alta calidad sin recopilar datos confidenciales en primer lugar, proporcionamos un modelo de cómo se deben redactar las futuras regulaciones de IA”, explicó.
Vineet reveló que el mayor desafío fue que enmascarar la cara hace que la foto final editada por IA parezca falsa o afecte su calidad.
“Si enmascaras demasiado, la IA pierde contexto y la foto se ve rara. Si enmascaras muy poco, pierdes tu privacidad. Desarrollamos una técnica de ‘mezcla inteligente’ que le da a la IA la información suficiente para comprender la iluminación y las sombras en la escena sin ver tus características biométricas reales. El resultado es una imagen de alta calidad y de aspecto profesional donde las ‘uniones’ entre tu cara real y las ediciones de la IA son completamente invisibles”, declaró.
Mientras tanto, Dipesh dijo que una cosa que la gente debe tener en cuenta cuando utilicen herramientas de inteligencia artificial en el futuro es que “la innovación no tiene por qué llegar a expensas de su identidad”.
“Durante mucho tiempo, nos han dicho que para obtener la mejor tecnología, tenemos que renunciar a nuestros datos. Nuestra investigación demuestra que eso no es cierto. Puedes tener la IA más poderosa del mundo y también tu privacidad. Nunca deberías tener que elegir entre ser creativo y estar seguro”, concluyó, añadiendo que el próximo gran paso es la soberanía de datos verificable.
“No es suficiente que una empresa prometa no utilizar sus datos; necesitamos sistemas técnicos que permitan al usuario verificar matemáticamente que sus datos han sido utilizados sólo para la tarea solicitada y luego eliminados inmediatamente. Combinar esto con el procesamiento en el dispositivo será clave para un mundo de IA donde la innovación y la seguridad personal no estén reñidas”, dijo Dipesh.












