Az llms.txt egyre többször kerül elő az AI SEO kapcsán: vajon valóban új szabvány születik a mesterséges intelligencia korában?
Az llms.txt egy új fájltípus, amelyet 2024-ben Jeremy Howard (llmstxt.org) javasolt azzal a céllal, hogy szabványos formátumban lehessen kommunikálni a weboldalak tartalmát a mesterséges intelligenciás nyelvi modellekkel (LLM-ekkel). A logika hasonlít a már jól ismert robots.txt-hez: ahogy a keresőmotorok robotjait lehet irányítani, úgy az llms.txt a ChatGPT, a Claude vagy a Google Gemini típusú rendszereknek nyújtana iránymutatást.
A működés szempontjából párhuzamot vonhatunk a sitemap.xml-lel is. Míg a robots.txt jellemzően azt mondja meg a keresőknek, hogy mit nem szabad bejárni, a sitemap strukturált formában segít a feltérképezésben. Az llms.txt ehhez hasonlóan szolgálhatna egyfajta „gyors útmutatóként” a nyelvi modelleknek – különösen az AI SEO területén, ahol egyre nagyobb szerepet kap, hogy az algoritmusok közvetlenül is felhasználják a tartalmakat. A jövőben az AI által vezérelt keresés (AI SEO) mellett a Generative Engine Optimization (GEO) is kapcsolódhat ehhez. Az llms.txt segítségével a webhely üzemeltetői szabályozhatják, milyen tartalmak jelenjenek meg az AI-alapú válaszgeneráló rendszerekben, és ezzel célzottabban irányíthatják a láthatóságot a mesterséges intelligencia által összeállított találatokban.
Az elmúlt hetekben több Google-szakértő is megszólalt a témában, és egyértelműen jelezték: a Google nem tervezi az llms.txt támogatását. Gary Illyes szerint a vállalat az AI Overviews és más mesterséges intelligenciával kapcsolatos funkciók esetében ugyanúgy a klasszikus SEO-szabályokat veszi figyelembe, mint eddig. John Mueller ehhez hozzátette, hogy célszerű lehet noindex alá helyezni az llms.txt fájlt, nehogy feleslegesen bekerüljön a keresési találatok közé.
A júliusi Google Search Central APAC eseményen szintén megerősítették: a webhelyek AI-láthatóságához nincs szükség új trükkökre, a hagyományos SEO-optimalizálás továbbra is elegendő. Ez a hozzáállás sok szakember szerint jelzi, hogy rövid távon nem lesz iparági konszenzus az llms.txt körül.
Az első mérések alapján az llms.txt egyelőre inkább elméleti eszköz, mintsem valóban használt gyakorlat. Az Archer Education júliusi elemzése azt mutatta, hogy csak elvétve érkeznek lekérések erre a fájlra, és a nagy nyelvi modellek mögött álló cégek (például OpenAI vagy Anthropic) nem kérik le rendszeresen. Flavio Longato augusztusi auditja – több mint ezer Adobe AEM domain vizsgálata alapján – ugyanezt erősítette meg: a fő AI-botok, köztük a GPTBot és a ClaudeBot, szinte soha nem nézik meg az llms.txt fájlokat.
Ugyanakkor látszanak jelei annak, hogy a szabványosodás irányába mozdul a piac. Egyes SEO-eszközök (például a Semrush) már dokumentációikban említik a fájlt, és több tartalomkezelő rendszer is előkészítette a támogatást. Sőt, a magyar piacon is megjelent az első kézzelfogható integráció: az UNAS webshopmotor 2025. augusztus 19-től lehetővé teszi, hogy a felhasználók saját llms.txt fájlt hozzanak létre és kezeljenek az adminisztrációs felületen. Bár a nagy LLM-ek még nem dolgozzák fel érdemben ezeket a fájlokat, ez a lépés mutatja, hogy a technológia egyre inkább beszivárog a mindennapi online kereskedelmi gyakorlatba.
Fontos ugyanakkor megjegyezni, hogy az llms.txt nem az egyetlen kezdeményezés ezen a területen. Léteznek alternatív megoldások is, például az ai.txt, amely szintén a webhelyek és az AI-rendszerek közötti kommunikáció szabványosítását célozza. Ez is mutatja, hogy az iparág jelenleg még keresi a legjobb és legszélesebb körben elfogadható megoldást arra, hogyan lehet hatékonyan szabályozni a tartalmak felhasználását a generatív AI-modellek világában.
A szakma erősen megosztott az llms.txt jövőjével kapcsolatban. A Semrush júliusi elemzése például azt emelte ki, hogy bár nincs iparági konszenzus, az implementáció olcsó és egyszerű, így érdemes lehet élni vele. Az Overdrive szerint az ötlet ígéretes, de addig nem lesz valódi jelentősége, amíg a nagy szereplők – Google, OpenAI, Anthropic – nem vezetik be széles körben. A SlimSEO blog pedig John Mueller szavait idézi: „jelenleg egyetlen nagy AI rendszer sem használja ténylegesen az llms.txt-t.”
Megjelentek azonban olyan vélemények is, amelyek szerint az llms.txt feleslegesen a gépeket helyezi előtérbe az emberi felhasználókkal szemben, és potenciálisan csökkentheti a weboldalakra érkező forgalmat. Az aggodalom lényege, hogy ha az AI-rendszerek közvetlenül, a webhely meglátogatása nélkül adják meg a választ a felhasználónak, akkor a tartalomkészítők kevesebb látogatót és konverziót nyerhetnek.
Mások viszont úgy érvelnek, hogy az AI-alapú válaszgenerálás így is, úgy is zajlik, függetlenül attól, hogy egy adott webhely használ-e llms.txt fájlt. A szabályozás hiányában a rendszerek saját algoritmusaik alapján dolgozzák fel a tartalmakat, így az llms.txt inkább lehetőséget ad arra, hogy a tartalomkészítők legalább részben beleszóljanak abba, milyen formában jelenik meg az anyaguk az AI-válaszokban. Más szóval: nem az a kérdés, hogy lesz-e AI-forgalom, hanem az, hogy a webhely üzemeltetői kontroll nélkül hagyják-e ezt, vagy megpróbálnak irányt mutatni a rendszereknek.
Ha egy weboldal vagy webshop motorja egyszerűen lehetővé teszi az llms.txt elhelyezését – mint most az UNAS –, akkor érdemes élni a lehetőséggel. Bár rövid távon nem hoz mérhető eredményt, hosszabb távon előnyös lehet, ha a fájl idővel iparági sztenderddé válik.
A realitás azonban az, hogy jelenleg a nagy nyelvi modellek nem támaszkodnak az llms.txt tartalmára. Ezért továbbra is a klasszikus SEO-optimalizálási gyakorlatokra érdemes koncentrálni: technikai SEO, minőségi tartalom, linkprofilépítés. Az llms.txt most inkább egy „jó, ha van” kiegészítő, mintsem kötelező elem, de hosszabb távon fontos szerepet kaphat az AI SEO- és GEO-stratégiákban is.