I mars 2024 uppstod en stor läcka av interna dokument från Google, vilket avslöjade detaljer om företagets sökalgoritm och andra interna processer. Läckan orsakades av en automatiserad bot som heter "yoshi-code-bot", som av misstag publicerade dessa dokument på GitHub.
3 min läsning
Sammanfattning
I mars 2024 läckte interna Google-dokument som avslöjade sökalgoritmens hemligheter. Läckan, orsakad av en bot, "yoshi-code-bot", exponerade information på GitHub. Dokumenten belyser användning av användardata, betydelsen av domänauktoritet och sandbox-effekter för nya sidor.
En bot kallad "yoshi-code-bot" laddade upp tusentals dokument från Googles konfidentiella Content API Warehouse till GitHub den 13 mars 2024. Det antas att detta var resultatet av ett systemfel snarare än en avsiktlig läcka.
Dokumenten spreds snabbt och uppmärksammades av SEO-gemenskapen och media. Erfan Azimi, VD för EA Eagle Digital, en marknadsföringsbyrå specialiserad på SEO, tog senare på sig ansvaret för att ha delat dokumenten med SEO-experten Rand Fishkin, som offentliggjorde informationen i maj 2024 .
Läckan omfattade 2 596 moduler och 14 014 attribut som anses vara rankingfaktorer. Bland de avslöjade detaljerna fanns användningen av klickdata, betydelsen av domänauktoritet, sandbox för nya sidor och hur Google använder Chrome-data för att påverka sökrankningar.
Läckan har lett till en omfattande diskussion inom SEO-gemenskapen om transparens och praxis för sökmotoroptimering. Google har ännu inte gett en detaljerad kommentar om läckan, men bekräftade att dokumenten är äkta.
För de flesta som arbetar med sökmotoroptimering är detta inte en nyhet utan snarare en bekräftelse på att man inte ska lita blint på Google.
Viktiga avslöjanden
Klickdata och användarbeteende
Google använder klickdata för att justera rankingar baserat på hur nöjda användarna är med sökresultaten. Systemet spårar och analyserar klicksignaler för att skilja mellan "bra klick" och "dåliga klick". Fenomen som "pogo sticking" (användare som snabbt backar från en sida) och "terminate the search" (användare som avslutar sin sökning) är centrala i denna bedömning.
Domain Authority
Google rankar sidor baserat på den övergripande trovärdigheten hos en hemsida. Hemsidor med hög Domain Authority tenderar att ranka högre, även för nya sidor. Detta koncept har länge diskuterats inom SEO och bekräftar att Google prioriterar innehåll från betrodda källor.
Länkbygge
Kvalitativa och relevanta länkar är avgörande för att förbättra en hemsidas ranking. Google ignorerar sannolikt länkar från irrelevanta källor och prioriterar länkar från samma land och trovärdiga nyhetskällor. Att ha en diversifierad länkprofil är viktigt .för att förbättra dina chanser att uppfattas som en auktoritär och trovärdig källa. Något som har positiv påverkan på din ranking."..
Sandbox för nya sidor
Google tillämpar en "sandbox"-period för nya sidor, vilket innebär en fördröjning i rankingen för att motverka spam. Nya hemsidor måste bevisa sitt värde genom högkvalitativt innehåll och trovärdiga externa länkar.
Innehållskvalitet
Högkvalitativt och relevant innehåll prioriteras av Google. Viktigt innehåll bör placeras tidigt i dokumentet, och uppdatering av gammalt innehåll kan förbättra rankingen. Google lagrar information om författare och mäter överoptimering av sökord, vilket gör det viktigt att skriva för användarna snarare än för Google.
Satsa på högkvalitativt innehåll och användarvänlighet.
Bygg upp din domain authority.
Uppdatera gammalt innehåll regelbundet.
Attrahera naturliga och trovärdiga länkar från pålitliga källor.
Om du vill säkerställa att din hemsida är SEO optimerad kan du vända dig till Robin. Med djupgående kunskap om sökalgoritmer och beprövade strategier kan Robin hjälpa dig att bygga en optimerad sajt som inte bara uppfyller Googles kriterier utan också levererar enastående användarupplevelser.