Cuidado con la aplicación de Meta AI: tiene un problema de seguridad muy importante

Meta no se ha querido quedar atrás en la intensa y competida carrera tecnológica y lanzó hace unos meses su potente y esperada aplicación de inteligencia artificial. Meta AI llegó para posicionarme como una de las opciones más utilizadas, con la promesa de desbancar a ChatGPT o Gemini, pero rápidamente se ha popularizado más por sus problemas de privacidad que por sus funciones.
Son miles los s que están compartiendo sin saberlo sus conversaciones privadas, sus datos personales e incluso confesiones que han hecho al chatbot. Lo peor es que cualquiera que use generar imágenes, interactuar con el e integrarse en el ecosistema de Meta. Hasta ahí, todo normal. El problema llega cuando la compañía decide incluir una función que publica las conversaciones. Cada vez que un interactúa con la IA, tiene la opción de compartir esos mensajes mediante un botón de publicar. Lo que muchos no parecen entender, o quizá Meta no ha sabido transmitir, es que esas conversaciones se exponen en un espacio público y todo el mundo puede leerlas.
El resultado es una galería de opiniones personales, datos sensibles y confesiones que, en muchos casos, podrían cambiar la vida de quienes las comparten. Pero el problema va aún más allá, ya que si un ha preguntado a la IA cómo evadir impuestos o ha mencionado nombres relacionados con asuntos legales, toda esa información queda expuesta públicamente.

Los expertos en ciberseguridad ya han calificado esto como una auténtica barbaridad y una pesadilla para muchos s, y es que no es para menos, ya que la privacidad es uno de los temas que están en tendencia en los últimos años y sobre el que las empresas deben ser totalmente transparentes y seguras.
Y casos como estos demuestran que queda mucho por avanzar en este terreno y que deber controlarse mucho más aquellas funciones que se lanzan, sobre todo si carecen de una gestión adecuada de la privacidad de los s. Al final, son nuestros datos con los que están jugando.
Lo que más sorprende de este caso es que un fallo de este nivel venga de una de las compañías tecnológicas más poderosas del mundo, con una capacidad de inversión multimillonaria que podría solucionar estos problemas en un suspiro. Según datos de Appfigures, la app de Meta AI apenas ha alcanzado los 6,5 millones de descargas desde su lanzamiento el 29 de abril. Una cifra que se queda algo corta si se tiene en cuenta el músculo económico y mediático de Meta. Y, sin embargo, suficiente para que el descontrol de la privacidad ya haya generado cientos de publicaciones virales con contenidos tan absurdos como preocupantes.

Entre los ejemplos más surrealistas que ya circulan en redes sociales se encuentran s que, sin pudor, piden ayuda a la IA para encontrar “mujeres con grandes curvas” o personas que publican su currículum pidiendo trabajo en ciberseguridad. Internet y sus cosas maravillosas. Por no hablar de las imágenes que se han generado con la propia app, que casan a Mark Zuckerberg con un insecto o que llevan a Mario Bros ante los tribunales.
¿Cómo saber si has compartido tus conversaciones y qué hacer?
Si eres de Meta AI, es importante que sigas estos pasos:
- Revisa si has compartido conversaciones: Meta indica que las conversaciones compartidas son públicas. Busca dentro de la aplicación o en la web de Meta AI alguna sección de contenido comunitario o público donde puedan aparecer tus interacciones.
- Ajusta la configuración de privacidad: accede a los ajustes de Meta AI y revisa las opciones relacionadas con los datos que se comparten.
- Precaución al usar la opción Publicar: antes de compartir cualquier conversación, asegúrate de que se trata de un contenido que no te importe que sea público. Si tienes dudas, es preferible no publicarla.
El problema de Meta es siempre el mismo: introducir elementos sociales en todos sus productos. La apuesta de convertir la interacción con un chatbot en contenido público parece más pensada para generar engagement y viralidad que para proteger a los s, y debe terminarse ya mismo.