Introducción: el “enlace” que trajo la IA

Un día le consulté a una IA que usamos en la empresa cómo utilizar una herramienta de un proveedor. No era un software OSS famoso ni un producto comercial con una comunidad vibrante; apenas había algo de información dispersa por la red.

La IA me ofreció una solución perfecta y, además, me pasó un enlace como “referencia”.

Abrí el enlace sin problemas. En la página aparecía justo la explicación que buscaba, pero el título decía así:

«Confidencial. Prohibida su difusión externa».

¿Eh? ¿De qué empresa era ese documento interno? Tras examinarlo, no era de mi compañía ni del proveedor: parecía ser un manual interno de otra empresa que usa la misma herramienta.

Qué suerte…

Para nada. Fue un momento que me heló la sangre.

Si uno ignora a la IA y busca con las palabras clave adecuadas, la página aparece, sí, pero perdida a decenas de páginas de distancia en los resultados. Un auténtico aguja en un pajar.


Primera parte: la “democratización” que trae la IA

Los motores de búsqueda tradicionales obligaban al ser humano a tamizar montañas de arena para encontrar pepitas de oro. Pese a los esfuerzos por mostrar arriba las páginas con la respuesta deseada, había límites: los grandes sitios acaparaban los primeros lugares y los datos cruciales de los sitios pequeños quedaban enterrados.

En cambio, la IA te entrega la pepita misma, aunque esté en un sitio relegado, siempre que coincida con la pregunta.

  • Información que a una persona le llevaría decenas de minutos encontrar —o que ya había dado por imposible— aparece al instante si el prompt encaja.
  • Quien antes no podía acceder a conocimiento experto ahora puede tocar la respuesta con solo preguntar.

Es, sin duda, la democratización del acceso a la información. Igual que en su día la internet, la IA arrebata el conocimiento de las manos exclusivas de las élites y especialistas y lo abre a todo el mundo.

En educación e investigación el efecto es evidente. Estudiantes y profesionales extraen al instante en su mesa datos que antes exigían seguir libros especializados o revistas científicas. Las startups pueden trazar estrategias sin contratos de consultoría millonarios, y una persona puede crear una app en una noche.

Y lo mismo vale para emitir información. Internet permitió que cualquiera difundiera sus ideas al mundo, pero la voz de quien era poco conocido seguía siendo difícil de descubrir.

Y sin embargo, mira lo que ocurrió. La IA sacó a relucir una página con un ranking pésimo en los buscadores, seguramente publicada por error y sin SEO alguno, pero aun así entregó su contenido al instante porque respondía a mi pregunta.

Podemos afirmar que la IA ha democratizado, a un nivel que la internet sola no alcanzó, tanto la difusión como el acceso a la información para quien la necesita.


Segunda parte: la “exposición” en el reverso de la democratización

Esta experiencia también me hizo ver que esa democratización es, al mismo tiempo, un motor de exposición.

La información de esa empresa estaba publicada por un fallo de configuración. Es cierto que un buscador tradicional podía indexarla y permitir que un tercero la encontrara. Pero sin la IA, lo más probable es que nadie se diera cuenta. Son muy pocos los que llegan hasta la página veinte de los resultados.

Información que antes se habría librado de miradas indiscretas —“nos equivocamos, pero nadie lo vio, así que estamos a salvo”— ahora llega al instante a quien la busca, gracias a la IA.

En este caso se trataba de instrucciones de uso (nada especialmente confidencial) y la petición no era maliciosa, así que no hubo daño real. Pero ¿y si la información expuesta fuera sensible y la buscara alguien con malas intenciones? Fue el momento en que entendí que el secreto de facto basado en la dificultad de encontrar algo ha dejado de existir en la era de la IA.

“Está tan enterrado que estamos a salvo” ya no vale. En cuanto algo se indexa, quien lo desea lo obtiene rápidamente.

Los grandes servicios de IA como ChatGPT implantan políticas y filtros para no responder a peticiones maliciosas, y seguirán reforzándolos. Pero ¿qué pasa con las IA que construye un particular sin ninguna política?

Hubo una época en la que los virus de Winny generaron un gran revuelo en Japón. Desde información interna de las Fuerzas de Autodefensa hasta listas de clientes de empresas o fotos y videos privados, todo salió a la luz, creando un problema social. Algunas compañías incluso obligaban a sus empleados a firmar compromisos de no usar Winny, algo curioso si recordamos que Winny no era más que una herramienta de compartición P2P.

La precisión de las respuestas de la IA generativa puede superar con creces aquello. Una vez que la información queda expuesta, cae en manos maliciosas con una rapidez incomparable con la de entonces. No hace falta malware: basta un solo descuido.

La IA ofrece la “respuesta” sin titubear cuando se le pregunta. No tiene ética ni sentido de responsabilidad. ※ Las IA con políticas “titubean”, sí, pero ya es posible que una persona monte modelos sin censura. En Hugging Face, por ejemplo, se distribuyen modelos sin filtros.

En la era de la IA ya no existe el “como está oculto, no pasa nada”.

Y la exposición no ocurre solo una vez. La IA puede aprender esos datos, resumirlos y reutilizarlos para otros usuarios. La información podría “difundirse y fijarse” al mismo tiempo, circulando casi de forma permanente sin que nadie note la fuga.


Tercera parte: la asimetría de velocidad

Otro problema es la asimetría de velocidad.

  • La IA recoge información, la optimiza y la entrega a una velocidad abrumadora; su capacidad para dársela a quien la desea supera con mucho a la búsqueda tradicional.
  • Las leyes, regulaciones, estructuras éticas, medidas de protección o la concienciación social avanzan, con suerte, a ritmo de años.

Esa asimetría es lo que vuelve tan inquietante esta situación.

Las revoluciones informativas del pasado —periódicos, televisión, buscadores— se dieron en etapas. Cada una añadía cierta fricción o demora, y eso daba a la sociedad tiempo para fijar reglas. La IA, en cambio, elimina la fricción y distribuye instantáneamente el “mejor resultado” por todo el planeta.

El resultado es que los conocimientos verídicos, los rumores falsos, las verdades incómodas o las filtraciones dolorosas se propagan al mismo ritmo desde el momento en que la IA los aprende. Un artículo académico y un rumor anónimo en un foro saldrán de la boca de la IA con el mismo peso. Ese futuro ya comenzó.


Cuarta parte: ¿dónde reside la responsabilidad?

En este caso yo abrí el enlace. No fue acceso no autorizado: aparecía en la búsqueda y no eludí autenticación alguna. El problema es que la decisión de “¿debería verlo?” recayó por completo en mí, o, dicho de otro modo, nunca hubo un punto de control en el que alguien decidiera si podía mostrarse.

La IA entrega respuestas sin preguntarse si debería hacerlo. Como mencioné en un artículo anterior, la IA no tiene orgullo, convicciones ni sentido del deber. Por eso los humanos tenemos que suplir esa responsabilidad.

Por si acaso, visité la portada del sitio de esa empresa y envié un correo al contacto que figuraba allí. No pretendo elogiarme, pero fue la responsabilidad, la conciencia y el miedo humanos los que compensaron la indiferencia de la IA.

El lector sagaz ya lo habrá imaginado: no todo el mundo actuará igual. Habrá quien difunda la información, y habrá quien sin querer haga que su material interno sea entrenado por una IA. Que yo sepa, por ahora esto no ha alcanzado el nivel de escándalo social que provocaron los virus de Winny, pero sospecho que tarde o temprano aparecerá como problema.


Conclusión: hacia un “diseño de la responsabilidad” para la era de la IA

La IA democratiza la información con una fuerza que supera con creces la difusión de internet, tanto en la obtención como en la publicación. Pero el reverso es ineludible: también posibilita exposiciones accidentales que llegan “de manera precisa y veloz” a los malintencionados. El verdadero temor reside en que deja de existir el “configuración errónea pero nadie lo vio, así que nos salvamos” y se transforma en “al quedar indexado por error, llega de inmediato y con precisión a manos maliciosas”.

Incluso sin fallos de configuración, basta con que alguien publique datos que consideró inocuos en su momento para que, al enlazarlos todos, sea fácil perfilar a esa persona sin desearlo. De hecho, le pedí a ChatGPT que leyera todos los artículos de este blog a modo de experimento, y elaboró un perfil mío con una precisión sorprendente, diría que en torno al 60 %. No acertó con mi empresa ni con mi edad exacta (aunque sí con un rango aproximado), y hubo muchos errores, pero no iba del todo desencaminado. ※ En la estilometría se ha demostrado que basta un puñado de líneas para identificar a la persona que escribe.

Dependiendo del objetivo de análisis, es posible que acierte plenamente. Un conjunto de datos que parece inofensivo puede, al vincularse, revelar realidades inesperadas con todo detalle. ※ El OSINT (Open Source Intelligence, o recolección y análisis de información pública) se vuelve más poderoso y sencillo. Cualquiera, incluso un acosador contra su objetivo, puede ponerlo en práctica.

El reto de ahora no es solo reforzar la seguridad. Necesitamos un diseño de responsabilidad y seguridad acorde con la era de la IA, que permita a la sociedad humana ajustar sus reglas y defensas al mismo ritmo con el que se democratiza la información.

La IA ha acercado el conocimiento como nunca antes. Pero al mismo tiempo se ha derrumbado el mito de seguridad de “si no se encuentra, no pasa nada”. Hoy no tengo una respuesta clara, pero si la IA ha disuelto las fronteras de la información, no hay duda de que necesitamos una nueva forma de comprender la gestión de datos.

De ahora en adelante no nos queda más que vivir con las dos caras de la moneda: democratización y exposición.