llms.txt a fost un pas bun. Dar nu e destul.
Dacă lucrezi în digital marketing și ai fost atent la discuțiile din ultimele luni, probabil ai auzit de llms.txt. Pe scurt, e un fișier pe care îl pui în rădăcina site-ului tău ca să spui modelelor AI ce conține site-ul, cam cum robots.txt face asta pentru crawlere. Am scris anterior despre cum ajunge conținutul tău în răspunsurile AI, iar llms.txt face parte din aceeași logică: ajută AI-ul să te înțeleagă.
Problema e că llms.txt funcționează ca un cuprins. Spune ce pagini ai, dar nu poate exprima relații între entități, nu poate confirma proveniența datelor și nu oferă context semantic. E ca și cum ai trimite cuiva lista capitolelor dintr-o carte, fără nici un paragraf din ea.
Un articol recent pe Search Engine Journal ridică exact această problemă și propune un framework în patru straturi care duce lucrurile mult mai departe. La difrnt. am analizat propunerea și am început să o testăm cu câțiva clienți. Iată ce am găsit relevant și ce funcționează în practică.
Cele patru straturi ale unei arhitecturi AI-ready
Gândește-te la prezența ta online nu ca la un site cu pagini, ci ca la o bază de cunoștințe pe care AI-ul o poate interoga. Framework-ul are patru componente care lucrează împreună:
1. JSON-LD fact sheets. Asta e stratul de bază. Fiecare pagină importantă de pe site-ul tău ar trebui să aibă date structurate în format JSON-LD care descriu clar ce se află pe acea pagină: produs, serviciu, persoană, organizație. Nu e ceva nou, dar datele arată că paginile cu structured data au de 2.3 ori mai multe șanse să apară în Google AI Overviews. De 2.3 ori. Nu e un procent marginal, e o diferență care contează real în business.
2. Cartografierea relațiilor între entități. Aici devine interesant. AI-ul nu înțelege site-ul tău ca pe o colecție de pagini independente. El construiește un graf de cunoștințe. Dacă îi spui că Dan Toma e CEO la difrnt., că difrnt. e o agenție de digital marketing, că agenția lucrează cu clienți din ecommerce și SaaS, AI-ul poate răspunde la întrebări contextuale despre brandul tău. Fără aceste relații explicite, AI-ul ghicește. Și ghicește prost.
3. Content APIs. În loc să lași AI-ul să facă scraping pe HTML-ul tău, îi oferi un endpoint structurat de unde poate extrage informații curate. E ca diferența dintre a citi un PDF scanat și a accesa un spreadsheet bine organizat. Modelul Context Protocol (MCP), creat de Anthropic și adoptat deja de OpenAI, Google DeepMind și Linux Foundation, a ajuns la 97 de milioane de download-uri lunare ale SDK-ului. Asta îți spune că direcția e serioasă, nu experimentală.
4. Metadata de proveniență. Cine a scris conținutul? Când? Pe baza căror surse? AI-ul începe să acorde importanță nu doar conținutului, ci și credibilității sursei. Timestamp-urile, autorul, citațiile originale construiesc un profil de încredere pe care modelele îl folosesc când decid pe cine citează.
De ce contează asta acum, nu peste doi ani
Cercetătorii de la Princeton au publicat un studiu pe GEO (Generative Engine Optimization) care arată că semnalele structurale pot crește vizibilitatea în AI cu până la 40%. Nu vorbim despre promisiuni de marketing, ci despre date dintr-un studiu academic.
La difrnt. vedem asta confirmat în practică. Clienții pentru care am implementat JSON-LD comprehensiv și structură semantică clară apar semnificativ mai des în răspunsurile generate de AI decât competiția care nu a făcut nimic. Nu e magie, e logică: AI-ul preferă datele pe care le poate procesa curat, cu surse verificabile și relații explicite.
Există și un precedent istoric care merită menționat. În 2012, Schema.org a fost lansat ca un standard de date structurate. Companiile care l-au adoptat devreme au beneficiat de rich snippets, knowledge panels și o prezență vizuală superioară în Google timp de un deceniu întreg. Același tip de fereastră se deschide acum pentru vizibilitatea în AI. Cei care se mișcă primii vor avea un avantaj greu de recuperat.
Conceptul de Verified Source Packs
Una dintre ideile cele mai interesante din noua arhitectură e cea de Verified Source Packs. Pe scurt, branduri care își structurează datele atât de bine încât devin surse preferate de informație pentru modelele AI.
Gândește-te la asta din perspectiva unui brand românesc. Dacă ești un retailer de electronice și ai Product schema impecabilă, prețuri actualizate, review-uri structurate, relații clare între produse și categorii, AI-ul te va prefera ca sursă de informație față de un competitor care are aceleași produse dar le prezintă într-un HTML nestructurat.
Nu e vorba doar despre SEO tehnic. E vorba despre optimizarea de brand în era AI, unde infrastructura de date devine un avantaj competitiv direct. Am văzut asta cu un client din zona de servicii financiare: după ce am implementat Organization schema cu relații explicite între servicii, echipă și studii de caz, ChatGPT a început să-i menționeze brandul în răspunsuri unde înainte apăreau doar competiții mai mari.
Ce poți face concret, începând de săptămâna asta
Framework-ul complet în patru straturi e un proiect pe termen mediu. Dar există un minimum viabil pe care îl poți implementa rapid:
- Auditează-ți JSON-LD-ul existent. Folosește Google Rich Results Test pe primele 20 de pagini ca trafic. Verifică dacă ai Product, Organization, FAQPage, Article schema unde e cazul. Dacă nu ai nimic, începe cu Organization pe homepage și Article pe blog.
- Creează un endpoint structurat. Nu trebuie să fie complex. Un JSON feed cu produsele sau serviciile tale principale, cu descrieri, prețuri, categorii și relații între ele. E pasul unu spre o arhitectură API-first pe care AI-ul o poate consuma.
- Adaugă timestamp-uri și autori. Fiecare pagină de conținut ar trebui să aibă clar data publicării, data ultimei actualizări și autorul. Asta pare banal, dar e exact tipul de metadata de proveniență pe care AI-ul o folosește ca să evalueze credibilitatea.
La difrnt. am făcut exact asta cu site-urile proprii și ale clienților. Nu am așteptat să avem o soluție completă pe toate cele patru straturi. Am început cu ce puteam face în două săptămâni și am iterat de acolo.
MCP și viitorul agenților AI
Model Context Protocol merită o discuție separată pentru că impactul lui va fi masiv. MCP e un standard deschis care permite agenților AI să se conecteze la surse de date externe într-un mod structurat și securizat. Faptul că Anthropic l-a creat, iar OpenAI, Google DeepMind și Linux Foundation l-au adoptat, îți spune că va deveni un standard de industrie, nu doar un experiment.
Pentru branduri, asta înseamnă că în viitorul apropiat, agenții AI nu vor mai face scraping pe site-uri. Vor interoga direct API-uri și endpoint-uri structurate. Dacă brandul tău nu are o astfel de infrastructură, pur și simplu nu va fi vizibil pentru agenții AI. Am explorat această direcție mai detaliat în articolul despre SEO-ul în era agenților AI.
Nu spun că trebuie să construiești un API MCP-compliant săptămâna asta. Dar trebuie să începi să gândești în termeni de date structurate, endpoint-uri accesibile și relații explicite între entitățile tale de business. Asta e direcția, și e mai aproape decât crezi.
Nu e despre tehnologie. E despre vizibilitate.
Poate părți din acest articol au sunat tehnic. JSON-LD, MCP, content APIs, toate astea par probleme de developer. Dar miza reală e una de business: dacă brandul tău nu e structurat pentru AI, pierzi vizibilitate într-un canal care crește exponențial. Și spre deosebire de SEO clasic, unde poți să recuperezi teren relativ repede, în AI visibility avantajul primilor este considerabil.
Ia 30 de minute săptămâna asta și testează Rich Results Test pe site-ul tău. Verifică ce vede AI-ul când îți analizează paginile. Dacă răspunsul e „aproape nimic structurat”, ai un punct de start clar. Iar dacă vrei să discutăm cum arată o strategie completă de AI visibility pentru businessul tău, știi unde ne găsești.





