Qué es llms.txt: definición y guía completa SEO
El archivo llms.txt es una convención emergente, propuesta en 2024, para que los sitios web indiquen a los modelos de lenguaje (LLMs) qué contenido de su dominio pueden usar, de forma similar a como robots.txt comunica instrucciones a los rastreadores de buscadores. Se coloca en la raíz del dominio (/llms.txt) y contiene instrucciones legibles sobre qué secciones del sitio están disponibles para entrenamiento o consulta de LLMs y cuáles no.
Qué contiene y cómo se estructura un archivo llms.txt
La propuesta de llms.txt (impulsada principalmente por Jeremy Howard y la comunidad de fast.ai) define un formato en Markdown que incluye: una descripción del sitio y su propósito; una sección de URLs permitidas para los LLMs con una breve descripción de cada una; y opcionalmente una sección de URLs excluidas o instrucciones adicionales. La idea es que los LLMs, cuando realizan búsquedas web en tiempo real (como hace Perplexity o ChatGPT con búsqueda), puedan leer este archivo para entender mejor el sitio y saber qué contenido es el más relevante para consultar. La sintaxis es simple: un archivo de texto en formato Markdown con secciones definidas.
Estado de adopción y soporte actual de llms.txt
A principios de 2025, llms.txt es una propuesta no oficial sin respaldo formal de los grandes desarrolladores de LLMs (OpenAI, Google, Anthropic). Algunos sitios relevantes del mundo tech lo han implementado a modo de experimento. No hay evidencia publicada de que ChatGPT, Gemini o Claude respeten activamente el archivo llms.txt de la misma forma que los buscadores respetan robots.txt. Sin embargo, la propuesta tiene lógica y momentum: si los LLMs se usan cada vez más para búsqueda web, algún mecanismo de comunicación entre editores y modelos tiene sentido. Seguir su evolución es recomendable para equipos de SEO y marketing digital avanzados.
llms.txt vs. robots.txt: similitudes y diferencias
Robots.txt es un estándar consolidado desde 1994, ampliamente respetado por todos los rastreadores web, con directivas claras para bloquear o permitir el acceso a URLs. llms.txt es una propuesta experimental sin adopción oficial ni obligatoriedad. La diferencia funcional es que robots.txt controla el rastreo e indexación para búsqueda web, mientras que llms.txt pretende comunicar a los LLMs qué contenido es más representativo y valioso del sitio. Implementar llms.txt no tiene coste significativo (es un archivo de texto simple) y puede aportar valor si la adopción crece, por lo que algunos SEOs lo recomiendan como inversión de bajo riesgo.
Preguntas frecuentes
¿Debo implementar llms.txt en mi sitio web?
Si tu equipo técnico puede hacerlo sin esfuerzo significativo, implementarlo es una apuesta de bajo riesgo ante una tendencia emergente. No hay evidencia de que cause perjuicio y puede tener valor si la adopción por parte de los LLMs crece. No lo priorices sobre otras tareas SEO más consolidadas.
¿Existe un generador de llms.txt?
Sí, hay herramientas y plugins emergentes que generan automáticamente el archivo a partir del sitemap o estructura del sitio. Para WordPress existen plugins específicos. También puedes crearlo manualmente: es simplemente un archivo de texto en formato Markdown con las secciones definidas en la especificación de llms.txt.