Buscar

Incognito Chat de Meta: Check Point advierte que la privacidad sin trazabilidad abre vacíos regulatorios críticos

El nuevo modo de conversación con IA plantea interrogantes sobre auditoría, litigios en curso y la viabilidad de los marcos normativos que América Latina está construyendo.

Meta anunció esta semana el lanzamiento de Incógnito Chat con Meta AI, disponible en WhatsApp y en la aplicación Meta AI. La función permite interactuar con inteligencia artificial en conversaciones que no se almacenan y que, según la compañía, ni siquiera Meta puede leer, gracias a su tecnología de Procesamiento Privado.

El anuncio llega en un momento en que Chile y varios países de América Latina avanzan en la definición de marcos regulatorios para el uso responsable de la IA, y en que las empresas del sector enfrentan una creciente ola de litigios por los daños que sus sistemas pueden ocasionar. Para Check Point Software Technologies, líder global en ciberseguridad, la función plantea preguntas que van directamente al corazón de ese debate.

«Reconocemos que la privacidad es una preocupación legítima para los usuarios que interactúan con la IA, y el cifrado tiene un papel importante en la mensajería. Sin embargo, creemos que las preguntas que deben plantearse van mucho más allá de ‘¿puede Meta leer mis conversaciones?’ y deben enfocarse en qué ocurre cuando nadie puede hacerlo», señaló Graeme Stewart, Head of UK Public Sector de Check Point Software Technologies.

Sin ningún registro de la conversación, no existe trazabilidad posible en caso de que algo salga mal, no hay mecanismo de auditoría y no hay forma confiable de hacer cumplir restricciones de edad en el momento que más importa. Esto coloca a las empresas -y a los reguladores- ante un escenario donde la rendición de cuentas se vuelve técnicamente imposible.

El contexto legal es relevante: diversas empresas de inteligencia artificial enfrentan hoy litigios activos por daños asociados al uso de sus plataformas. La ausencia de registros no elimina la responsabilidad, pero sí la hace mucho más difícil de determinar y exigir. «Decirles a los usuarios que existen filtros para bloquear contenidos dañinos no es lo mismo que demostrar que esos filtros son suficientes, especialmente considerando los litigios en curso contra empresas de IA precisamente en estos escenarios», agregó Stewart.

Desde Check Point advierten que presentar la función como un avance en privacidad mientras estas vulnerabilidades permanecen sin atender parece más una postura de marketing que una decisión de producto responsable. «Estaremos atentos a cómo Meta responde las preguntas más difíciles», concluyó Stewart.

noticias relacionadas

Estudian usar portales de detección de armas basados en IA en escuelas ante crecimiento de violencia escolar

Astrónoma Tere Paneque en la UTalca: “Más mujeres en ciencia no es un capricho, es una necesidad”

Chile hace historia: Inventores nacionales son finalistas del Premio al Inventor Europeo 2026

Ley de protección de datos obliga a empresas a redefinir su estrategia digital y expone brechas en talento especializado