Site-ul tău a fost construit pentru oameni. Dar cei mai importanți vizitatori ai săi s-ar putea să nu mai fie oameni mult timp de acum încolo.
Un articol recent pe Search Engine Journal prezintă un ghid publicat de Google pe web.dev, în care dezvoltatorii sunt sfătuiți să trateze agenții AI ca pe un tip distinct de vizitator. Nu e o recomandare vagă. E un semnal clar despre direcția în care merge web-ul.
Google o spune direct: tot mai mulți utilizatori renunță la navigarea manuală și deleghează sarcini unor agenți AI. Iar dacă site-ul tău nu e pregătit pentru asta, pierzi o categorie întreagă de trafic fără să știi. La difrnt., vedem asta zilnic în datele clienților: user-agent strings noi, pattern-uri de navigare non-umane, sesiuni care parcurg pagini într-un mod pe care niciun utilizator real nu l-ar face.
Trei moduri în care un agent AI „citește" un site
Când un om intră pe un site, vede interfața vizuală: culori, butoane, text. Un agent AI poate „vedea" site-ul în trei moduri diferite, fiecare cu avantajele și limitările lui.
Primul mod: capturi de ecran procesate cu modele de viziune. Agentul face un screenshot al paginii și folosește un model vizual pentru a interpreta ce e pe ecran. Funcționează, dar e lent și imprecis. Dacă un buton arată ca un buton dar e de fapt un div stilizat, agentul poate să-l rateze.
Al doilea mod: structura HTML brută. Agentul citește codul sursă direct. Rapid, dar zgomotos. Un HTML plin de div-uri nested și clase CSS generate automat e greu de interpretat chiar și pentru un model de limbaj avansat.
Al treilea mod, și cel recomandat de Google: arborele de accesibilitate. Acesta oferă o hartă precisă a tuturor elementelor interactive de pe pagină, cu roluri, etichete și relații. E cea mai fiabilă metodă prin care un agent poate naviga un site. Dacă elementele tale interactive nu apar corect în arborele de accesibilitate, pentru un agent AI pur și simplu nu există.
Ce face un site „funcțional stricat" pentru agenți
Iată problema concretă: multe site-uri care arată perfect pentru utilizatori sunt practic inutilizabile pentru agenții AI. Google identifică câteva anti-pattern-uri frecvente.
Hover states complexe. Dacă informații esențiale sau meniuri apar doar la hover, un agent nu le poate accesa. Agenții nu „trec mouse-ul" peste elemente. Informația trebuie să fie accesibilă fără interacțiune contextuală.
Layout-uri instabile. Elementele care se mută pe pagină în timpul încărcării sau la scroll derutează agenții la fel cum derutează utilizatorii. Diferența: un utilizator se adaptează, un agent se blochează.
Div-uri stilizate în loc de HTML semantic. Un <div class=„btn-primary"> arată ca un buton, dar nu e recunoscut ca buton de arborele de accesibilitate. Un <button> e. Diferența pare minoră, dar pentru un agent e diferența între funcțional și invizibil.
La difrnt., când facem audituri tehnice orientate spre era agenților AI, verificăm deja aceste lucruri. Dar acum miza e mai mare: nu mai e vorba doar de accesibilitate pentru persoane cu dizabilități (deși și asta contează enorm), ci de accesibilitate pentru agenții AI care vor media din ce în ce mai mult relația dintre brand și consumator.
De la accesibilitate la agent-readiness
Cel mai interesant aspect din ghidul Google e suprapunerea aproape totală între practicile de accesibilitate web și cerințele pentru compatibilitate cu agenții AI. Practic, dacă site-ul tău respectă standardele WCAG, e deja în mare parte pregătit.
HTML semantic (<button>, <a>, <label> în loc de div-uri stilizate), layout-uri stabile, asocieri corecte între etichete și câmpuri de formular, cursor: pointer pe elementele clicabile. Sunt lucruri pe care orice developer competent ar trebui să le implementeze oricum.
Dar realitatea e că multe site-uri, inclusiv din Romania, nu le respectă. Un audit rapid cu Lighthouse pe site-uri de e-commerce romanești arată frecvent scoruri de accesibilitate sub 70. Formulare fără etichete asociate, butoane care sunt de fapt link-uri, meniuri de navigare care funcționează exclusiv cu JavaScript. Fiecare dintre aceste probleme e acum și o barieră pentru agenții AI.
Noi am testat intern cum interpretează mai mulți agenți AI (Claude, GPT-4, Gemini) site-urile clienților noștri. Rezultatele au confirmat ce spune Google: site-urile cu HTML semantic curat au fost navighate aproape perfect. Site-urile cu multe componente custom JavaScript au generat erori și interpretări greșite în peste 40% din cazuri.
WebMCP și ce urmează
Google lucrează la un standard numit WebMCP, un protocol pentru interacțiunea dintre agenți și site-uri web. E în faza de early preview, cu înscrieri disponibile pentru dezvoltatorii Chrome.
Ce promite WebMCP? O modalitate standardizată prin care un site poate „spune" unui agent ce acțiuni sunt disponibile, ce date poate oferi și cum trebuie interacționat cu el. Gândește-te la asta ca la un API implicit pentru fiecare pagină web. Fără să scrii documentație separată, fără să construiești endpoint-uri dedicate.
Pentru marketeri și proprietari de business-uri, implicația e clară: site-urile care adoptă timpuriu aceste standarde vor fi primele pe care agenții AI le pot folosi eficient. Iar asta se traduce în vizibilitate, conversii și relevanță într-un web din ce în ce mai intermediat de AI. Am scris anterior despre ce arată datele despre conținut și AI Search, iar această direcție confirmă trendul: prezența ta digitală trebuie să fie lizibilă nu doar pentru oameni, ci și pentru mașini.
Patru verificări pe care le poți face astăzi
Nu trebuie să aștepți WebMCP ca să începi. Iată ce poți face concret pe site-ul tău chiar acum:
1. Rulează un audit de accesibilitate. Folosește Lighthouse sau axe DevTools și notează scorul. Fiecare problemă de accesibilitate e acum și o problemă de agent-readiness. Concentrează-te pe elementele interactive: butoane, formulare, navigare. Țintește un scor de cel puțin 90.
2. Verifică HTML-ul semantic. Caută div-uri care funcționează ca butoane sau link-uri. Înlocuiește-le cu elementele HTML corecte (<button>, <a>, <label>). Adaugă atribute aria acolo unde structura nativă nu e suficientă.
3. Elimină dependențele de hover. Orice conținut sau funcționalitate accesibilă doar prin hover trebuie să aibă o alternativă. Dacă un meniu apare la hover, trebuie să funcționeze și la click sau focus. Testează navigând site-ul doar cu tastatura.
4. Testează stabilitatea layout-ului. Core Web Vitals deja măsoară CLS (Cumulative Layout Shift). Un CLS ridicat nu deranjează doar utilizatorii, ci face site-ul imprevizibil pentru agenți. Ține-l sub 0.1.
Ceea ce e fascinant în toată această schimbare e că Google o spune explicit: tot ce faci ca să pregătești site-ul pentru agenții AI îl face mai bun și pentru oameni. Nu e un compromis. E o investiție cu dublu randament. Iar în contextul în care comerțul agentic câștigă teren, asta nu mai e un nice-to-have.





