
Las gafas que escuchan, traducen y te vigilan
¿Lo quieres en tu cara? Así funciona la IA de Meta
¿Meta está usando todo lo que vemos para entrenar su IA? Una reflexión desde el futuro que ya llegó.
Ya está disponible un nuevo episodio del pódcast Flash Diario y, como siempre, lo puedes escuchar embebido aquí mismo en el blog de El Tiempo. Esta vez, hablamos de las nuevas funciones de las Ray-Ban Meta, unas gafas inteligentes que ahora ofrecen traducción en vivo entre idiomas, reconocimiento de objetos, asistencia visual por inteligencia artificial y reproducción de música. Pero también hablamos de algo más inquietante: ¿qué significa dejar que una empresa como Meta esté literalmente entre nuestros ojos y el mundo?
Gafas con superpoderes (y con micrófonos)
La actualización más reciente de las Ray-Ban Meta permite conversaciones en inglés, francés, italiano y español, con traducción instantánea sin necesidad de conexión a internet. Puedes activar la función y empezar a hablar: las gafas detectan el idioma y traducen directamente a tu oído. Si la otra persona tiene la app de Meta en su teléfono, puede ver lo que tú le dices ya traducido. Hasta aquí, todo suena a magia tecnológica.
Pero también puedes pedirle a Meta AI que identifique lo que ves. Por ejemplo, apuntar con las gafas a una planta, una comida o un edificio y preguntar «¿Qué es esto?», y la IA responde. También puedes preguntarle qué cocinar con lo que tienes en tu nevera o qué vino combina mejor con tu cena. Todo esto se hace con voz, sin necesidad de sacar el celular, gracias a los micrófonos y la cámara integrada. Parece útil, sí, pero también plantea preguntas difíciles.
¿A cambio de qué?
Cada vez que las gafas escuchan, graban o miran algo, esa información no se queda solo en tu dispositivo. Meta, la misma empresa que administra Facebook, Instagram, Threads y WhatsApp, ha sido clara en que está entrenando su inteligencia artificial con el contenido público y con datos que sus usuarios generan. ¿Está haciendo lo mismo ahora con todo lo que las Ray-Ban Meta captan? ¿Las fotos, videos y audios que grabamos con ellas alimentan también su modelo de IA?
Meta ha afirmado en el pasado que entrena sus modelos con información pública. Pero muchos usuarios desconocen que lo que publican —o incluso lo que no publican, como interacciones o borradores— también puede alimentar esos sistemas. Entonces, ¿estamos entregándole a Meta una nueva forma de ver todo lo que vemos, de escuchar todo lo que escuchamos y de interpretar nuestras acciones en tiempo real?
Europa dijo: un momento
El despliegue de estas gafas en Europa se retrasó justamente por eso. Los organismos reguladores exigieron garantías sobre la privacidad, la recolección de datos y el uso que Meta haría de esa información. Al final, Meta logró el visto bueno, pero solo después de prometer mayor transparencia, control para los usuarios y un marco de uso más restrictivo. Aun así, la preocupación permanece: ¿están esas promesas cumpliéndose? ¿Realmente entendemos los términos de uso que aceptamos al usar las gafas?
¿Un mundo sin teléfono, pero con más vigilancia?
Estas gafas también permiten hacer llamadas, enviar mensajes y escuchar música. Son una forma de dejar el celular en el bolsillo y tener la tecnología «puesta» todo el tiempo. Y eso es justo lo que algunos critican: al estar siempre activas, las gafas pueden convertirse en una herramienta de vigilancia continua, tanto para quien las usa como para quienes están alrededor.
Por más luz LED que avise que están grabando, ¿quién se va a dar cuenta en medio de una conversación casual? ¿Y qué ocurre si grabas sin avisar? ¿Lo sabrán las personas con las que hablas? ¿Y los algoritmos que procesan esa información?
¿Estás dispuesto a renunciar a tu privacidad por comodidad?
La gran pregunta es si vamos a aceptar este tipo de tecnología como algo inevitable, a cambio de una vida más fluida, sin barreras idiomáticas, sin teléfonos en la mano, con más respuestas al instante. Pero no podemos ignorar lo que entregamos a cambio: privacidad, autonomía, y el control de nuestra propia mirada.
Ya no se trata solo de si compartimos nuestras fotos, sino de si aceptamos que Meta vea todo lo que vemos, escuche todo lo que escuchamos y tome decisiones por nosotros. ¿Estás dispuesto a vivir con un filtro de inteligencia artificial entre tú y el mundo, las 24 horas?
Porque como dice el viejo refrán: nada es verdad ni es mentira, todo depende del color del cristal con que se mira. Y ahora, ese cristal tiene una cámara, micrófonos, y se conecta con Meta AI.
¿Lo quieres en tu cara?
Comentarios