Venn Diagram Math Lesson For Kids, 1., 2. og 3. klasse Opplæring

Nylig har Google gjort noen endringer i verktøy for nettredaktører som er forklart nedenfor: http://googlewebmastercentral.blogspot.com/2012/03/crawl-errors-next-generation.html

En ting jeg ikke kunne finne ut er hvordan jeg skal tolke antall feil over tid. I slutten av februar har vi nylig migrert nettstedet vårt og ikke implementert viderekoblingsregler for noen sider (ganske mange faktisk). Her er hva vi får fra Crawl errors:

Det jeg ikke vet er om antall feil er kumulativ over tid eller ikke (dvs. hvis Google-roboter gjennomsøker nettstedet ditt på to forskjellige dager og finner 1 separat problem hver dag, om de vil rapportere en feil for hver dag, eller 1 for 1. og 2 for 2.).

Basert på Crawl stats vi kan se at antall forespørsler fra Google-bots ikke øker:

Derfor tror jeg at antall rapporterte feil er kumulative, og at en feil oppdaget på en dag blir tatt i betraktning og rapportert de påfølgende dagene til det underliggende problemet er løst og siden det er gjennomsøkt på nytt (eller hvis du manuelt Mark as fixed feilen) fordi hvis du ikke kommer med flere forespørsler til et nettsted, er det ingen måte du kan sjekke nye sider og gamle sider samtidig.

Spørsmål: Tolker jeg antall feil riktig?

Ja, du tolker tallene riktig. En gjennomsøkingsfeil vil fortsette å bli rapportert når siden returneres, en omdirigering er satt opp, eller Google slutter å prøve å gjennomsøke siden. Så når Google finner flere sider med gjennomsøkingsfeil, vil du se antall gjennomsøkingsfeil øke.

  • vi er på samme side.
  • Hvis du merker en side som løst, noe som tydeligvis ikke er et godt alternativ for deg hvis du må gå inn manuelt for å fikse hver feil, vil den forsvinne fra feillisten. Vet noen av dere om siden vil vises igjen i listen over feil når den gjennomsøkes igjen?
  • Delspørsmål fra tekst er: "... til det underliggende problemet er løst og siden det er gjennomsøkt igjen ..." Det betyr at det ikke er nok, at jeg løser problemet på nettstedet mitt (for eksempel å ikke tillate noen nettadresser i roboter. .txt), må jeg vente på neste gjennomgang av siden, slik jeg forstår riktig? I mellomtiden vil jeg fremdeles se det store antallet totalt "ikke funnet" sider.

fungert for deg: Charles Robertson | Ønsker du å kontakte oss?