Færre søgeresultater fra Google

Google scraping

Google fjerner muligheden for at scrape 100 søgeresultater – sådan ændrer det SEO-verdenen

Introduktion

Googles beslutning om at fjerne muligheden for at hente 100 søgeresultater pr. forespørgsel – via parameteren &num=100 – markerer en betydelig ændring i den måde, SEO-fagfolk, udviklere og analyseværktøjer kan interagere med søgemaskinens data på.

I mange år har denne funktion været en hjørnesten i dataindsamling for alt fra rank tracking, konkurrentovervågning og keyword research til markedsanalyse. Nu er den væk.

Denne ændring har både tekniske, strategiske og økonomiske konsekvenser – og tvinger hele SEO-branchen til at genoverveje sine metoder, datastrategier og værktøjsvalg.

Hvordan fungerede scraping af 100 søgeresultater tidligere?

Før ændringen kunne man blot tilføje parameteren &num=100 i en Google-søgning, hvilket returnerede de 100 første resultater på én side.
Eksempel:

https://www.google.com/search?q=seo+analyse&num=100

Denne metode gjorde det muligt for udviklere og SEO-eksperter at hente komplette resultatsider i ét enkelt kald. Det betød:

  • Hurtigere databehandling
  • Færre forespørgsler til Googles servere
  • Mindre risiko for IP-blokering
  • Lavere omkostninger for scraping-systemer

Ved at bruge proxies, IP-rotation og caching kunne man opbygge store databaser med millioner af søgeresultater. Mange rank tracking-værktøjer (som AccuRanker, SERPWatcher, Nightwatch, m.fl.) har brugt netop denne teknik som basis for deres daglige opdateringer.

Hvad har Google ændret?

Fra september 2025 ignorerer Google simpelthen parameteren &num=100.
Uanset hvordan den tilføjes, returneres der nu kun de sædvanlige ~10 resultater per side.

Det betyder, at:

  • Scripts, der forventer 100 resultater, nu kun får 10.
  • Automatiserede rank trackers må sende ti gange så mange kald for at hente samme datamængde.
  • Datahastighed og effektivitet falder markant.
  • IP-blokeringer bliver mere almindelige, da systemer nu bombarderer Google med langt flere anmodninger.

Googles sandsynlige motiver

Googles beslutning er ikke tilfældig. Den afspejler en bredere strategi, som har været undervejs i flere år.

1. Beskyttelse mod automatiseret scraping

Google ønsker at begrænse mængden af uautoriseret dataindsamling. Scraping belaster deres servere, øger sikkerhedsrisici og kan misbruges til manipulative formål, såsom konkurrentanalyse på stor skala.

2. Øget brug af officielle API’er

Google vil gerne have, at udviklere bruger deres egne API’er, fx Search Console API eller Custom Search API. Disse tjenester giver kontrolleret adgang til data, men med begrænsninger og omkostninger.

3. Forbedring af brugeroplevelsen

Googles søgegrænseflade er designet til mennesker, ikke bots. Ingen almindelig bruger gennemgår 100 resultater ad gangen, så funktionen havde primært værdi for automatiserede systemer.

4. Kontrol over datatilgængelighed

Ved at fjerne muligheden for at hente store mængder søgeresultater, styrker Google kontrollen over, hvem der kan indsamle søgedata – og hvordan disse bruges kommercielt.

De direkte konsekvenser for SEO-branchen

1. Rank tracking bliver langsommere og dyrere

SEO-værktøjer, der overvåger tusindvis af søgeord dagligt, skal nu bruge langt flere forespørgsler for at hente de samme resultater. Det betyder:

  • 10x øgede kald til Google
  • Flere proxy-servere og IP-adresser
  • Større risiko for fejl, timeouts og blokeringer
  • Højere driftsomkostninger

De fleste leverandører må derfor enten optimere deres teknologi eller ændre prismodeller.

2. Begrænset konkurrentanalyse

Tidligere kunne man på få sekunder se hele top 100 for et søgeord. Nu kræver det 10 separate forespørgsler – og det gør det næsten umuligt at analysere konkurrenters tilstedeværelse i større skala uden dyre API’er.

3. Forringet datahistorik

Når man ikke længere kan hente hele top 100 på én gang, bliver sammenligning af historiske data vanskeligere. Det skaber uensartede tidsserier og gør trendanalyse mindre præcis.

4. Mindre adgang for små aktører

Små virksomheder og freelance SEO’er, der tidligere brugte open source-scripts og billig scraping, mister nu en vigtig ressource. Det kan øge kløften mellem små og store aktører i SEO-landskabet.

Tekniske og etiske implikationer

Teknisk:

Ændringen udfordrer de grundlæggende principper bag mange SEO-tools. Det tvinger udviklere til at:

  • Implementere mere avanceret pagination
  • Benytte asynkron databehandling for at håndtere mange kald
  • Optimere proxy rotation og rate limiting
  • Overveje officielle API-løsninger fremfor uofficiel scraping

Etisk og juridisk:

Scraping er ikke ulovligt i sig selv, men det strider ofte mod Googles Terms of Service. Ved at fjerne &num=100 gør Google det endnu tydeligere, at uautoriseret scraping ikke accepteres.
Det betyder, at SEO-branchen i stigende grad må balancere mellem databehov og etiske retningslinjer.

Hvordan kan SEO-folk tilpasse sig den nye virkelighed?

1. Skift fokus fra “placeringer” til “synlighed”

I stedet for at måle præcise positioner i top 100, bør fokus flyttes mod overordnede synlighedsmål: klikrate, impressions, og organisk trafik fra Search Console.

2. Brug Googles API’er strategisk

Selvom API’er har begrænsninger, kan de kombineres med interne datasæt og tredjepartsanalyse for at skabe valide rapporter uden scraping.

3. Fokuser på SERP-features

Google viser langt mere end blot links: snippets, billeder, kort, “People also ask” og videoresultater fylder mere. SEO-indsatsen bør afspejle denne virkelighed.

4. Brug tredjepartsplatforme

Tjenester som Ahrefs, Semrush og Moz bruger allerede API-baseret datatilgang. De vil være mindre påvirket, fordi de har indgået aftaler om datakilder.

5. Implementér smartere scraping

Hvis man fortsat vil scrape, bør det ske langsomt og med respekt for Google’s robots.txt, proxies og tidsintervaller – og kun til internt brug.

De strategiske konsekvenser

SEO-data bliver mere eksklusiv

Det bliver vanskeligere at indsamle store mængder data, hvilket giver et markedsfortrin til virksomheder med adgang til premium-datakilder.

Forskydning i SEO-branchen

Værktøjer baseret på billig scraping mister værdi, mens data-partnere og API-integrerede løsninger bliver guld værd.

Mindre gennemsigtighed i SERP’er

Uden nem adgang til top-100-resultater bliver det sværere at dokumentere ændringer i søgealgoritmer og SERP-layouts.

Langsigtede konsekvenser for branchen

  • Data vil i stigende grad blive kommercielt kontrolleret
  • SEO vil bevæge sig mod machine learning og semantisk analyse, fremfor simpel rank tracking
  • Værktøjslandskabet vil konsolidere sig – færre, men stærkere aktører
  • Etisk SEO bliver en konkurrencefordel – gennemsigtighed og overholdelse af retningslinjer bliver vigtigere end nogensinde

Praktisk eksempel: Rank tracking i praksis

Et SEO-bureau overvåger 10.000 søgeord for 30 kunder.
Tidligere:

  • 10.000 forespørgsler x 1 (med num=100) = 10.000 kald
    Nu:
  • 10.000 forespørgsler x 10 (fordi kun 10 resultater per side) = 100.000 kald

Det betyder:

  • 10x mere datatrafik
  • 10x større risiko for IP-blokering
  • 10x højere proxy-udgifter
  • Lavere hastighed og effektivitet

For et mellemstort bureau kan det øge omkostningerne med tusindvis af kroner om måneden – eller tvinge dem til at ændre deres teknologi helt.

Fremtidige alternativer

  1. Google Search Console API – Tilgængelig, men begrænset i søgeord og historik
  2. Custom Search API – Betalt løsning med fleksibilitet
  3. Bing Webmaster Tools API – Gratis og mere åben
  4. Tredjepartsdatabaser – F.eks. Ahrefs, Moz, Semrush
  5. Open Source-samarbejder – Deling af anonymiserede SERP-data mellem bureauer

FAQ

1. Hvad er “&num=100”-parameteren?

Det er en URL-parameter, der tidligere lod brugeren hente 100 søgeresultater ad gangen på én side i Google.

2. Hvornår fjernede Google denne funktion?

I september 2025 begyndte Google gradvist at ignorere parameteren, så den ikke længere returnerer mere end 10 resultater.

3. Hvem påvirkes mest?

SEO-værktøjer, marketingbureauer og dataanalytikere, der er afhængige af automatiseret rank tracking og konkurrencedata.

4. Kan man omgå ændringen?

Teknisk ja, men det kræver 10 separate forespørgsler pr. søgeord og øger risikoen for IP-blokering betydeligt.

5. Er det lovligt at scrape Google?

Det afhænger af formålet. Kommerciel scraping uden tilladelse overtræder Googles vilkår, men ikke nødvendigvis lovgivningen. Dog bør man altid agere etisk og ansvarligt.

6. Hvad er det bedste alternativ?

For de fleste: kombinationen af Google Search Console API, tredjeparts SEO-platforme og manuel validering.

7. Hvilken retning bevæger SEO sig i efter denne ændring?

Mere dataetik, mere API-brug og større fokus på kvalitet frem for kvantitet i søgeordsanalyse.

8. Vil Google fortsætte med at lukke af for scraping?

Sandsynligvis ja. Denne ændring er en del af en større bevægelse mod kontrolleret datatilgang og beskyttelse af brugernes søgeadfærd.

Scroll to Top