Imagina estar en un lugar público, platicando sobre algún tema sensible, y que a tu lado una persona con gafas graba con audio y video.
¿Es correcto? ¿Es ético? ¿Es legal? Por supuesto que no, sin embargo, puede pasar debido al auge de estos lentes, algunos ya con inteligencia artificial (IA).
Son dispositivos que podrían representar riesgos y vulnerar derechos y la privacidad; así lo demostró un experimento realizado por estudiantes de Harvard con uno de los modelos de la empresa Meta, donde identificaron casi en tiempo real a personas utilizando una base de datos.
El desafío de la privacidad ante el reconocimiento facial
Ante esta situación y los alcances de la tecnología, especialistas se pronuncian por avanzar en regulaciones más específicas para el empleo de estas gafas, sobre todo cuando combinan sistemas de reconocimiento facial y pueden acceder a datos personales sensibles.
“El uso de esta tecnología por regla general debería implicar una evaluación de impacto a la privacidad. Tenemos constantemente noticias de que hay vulneraciones a plataformas o páginas de internet en donde se quedan comprometidos datos personales; por eso es importante que tengamos una autoridad que cuente con todas las herramientas para hacer una buena labor”, explicó José Juan Guzmán Camacho, investigador del Laboratorio de Ciberseguridad del CIC, IPN.
También señalan que las empresas tecnológicas deben hablar abiertamente de los riesgos asociados a sus productos.
“Creo yo que ellos tienen una responsabilidad ética de decir: ‘A ver, no puedo yo crear tecnología que sé que puede representar algún daño o algún riesgo de daño para los usuarios’. El problema no es la tecnología en sí, sino para qué la utilizas”, concluyó Camacho.