LEPROSY Mycosis Fungoides | Monkey Leonine Bull Dog FACIES | NEET AIIMS PG | Crack Derma med DrMSD

Jeg utvikler et sosialt nettsted for boklesere, med offentlige brukerprofilsider. For hver bruker er det flere sider tilgjengelige:

  • Hovedbruker-siden (om meg, siste aktivitet, ...)
  • Flere sider med bøker:
    • Personlig bibliotek
    • Ønskeliste
    • Leseliste
    • ... og mer

Jeg har allerede nærmere 10.000 registrerte brukere, hvorav mange har liten eller ingen aktivitet.

Jeg vet at Google ikke kan indeksere millioner av brukerprofilsider fra første dag, og jeg vil ikke at det skal indeksere ubrukelige sider som i utgangspunktet inneholder brukernavnet og "Denne brukeren har ingen aktivitet". Google er ikke villig til å indeksere mange av sidene mine for øyeblikket, og jeg vil gjerne kunne gi det et hint om hvilke sider som er relevante.

Bør jeg eksplisitt forhindre Google i å indeksere de tomme profilsidene? Jeg tenkte på en noindex, follow roboter metakode, som i utgangspunktet vil fortelle Google at det er OK å hente lenker fra denne siden, men at innholdet er av liten verdi.

Jeg vet at Google ikke på magisk vis vil finne tomme profilsider hvis de ikke er lenket hvor som helst (og jeg vil ikke gjøre feilen ved å plassere dem i et sitemap); men jeg er mer bekymret for de "nesten tomme" profilene: noen skriver en enkelt anmeldelse, profilsiden hans er lenket fra boksiden, og plutselig finner GoogleBot sin nesten tomme profilside, og hans helt tomme boklistesider. Jeg vil ikke at det skal indekseres før de inneholder noen innhold.

Er det en god ide å sette noen nedre grenser for sideinnholdet (for eksempel en personlig bibliotekside med minst 10 bøker, eller en profilside med en lang nok Om meg og litt aktivitet å vise), og bare eksplisitt tillate roboter å indeksere disse sidene?

  • Hvis det bare er få profiler, er det greit å ikke bruke noindex-metakoder, 5 sider med lav kvalitet og 500 kvalitetssider på brukergenerert nettsted er helt greit.
  • Det er faktisk det motsatte. Det er mange (titusenvis) sider med lav kvalitet, for noen hundre sider av høy kvalitet.
  • Da ville jeg gått etter noindex-metakoder. Og det vil være flott hvis du kan programmere og legge til noindex-metakoder bare på sider med lav kvalitet. Som profil har ingen aktivitet. Eller Profil har tomme biodetaljer.
  • Metakoden vil definitivt bli generert programmatisk basert på sideinnholdet!

Du kan takle dette på forskjellige måter.

1. Bruke robots.txt

La oss si at nettstedet ditt er: example.com

Og brukerprofilen er:

Struktur 1: Godt designet profil

 - example.com/user/user1 => Main Profile - example.com/user/user1/other-page => Other Page 

Struktur 2: Grunnleggende profil

Du kan opprette en annen URL-struktur som:

- example.com/minuser/user1 => Basic Profile - example.com/minuser/user1/other-page => Basic Other Page 

Du kan opprette tilstand, for eksempel: Hvis brukeren har krysset av for 5 ting, må du ha struktur 1 annen struktur 2 (anbefales ikke å beregne på kjøretid).

Merk: Mens du designer algoritmen, må du tenke på mange ting.

BLOKKERING: Du kan blokkere / minuser ved hjelp av robots.txt.

2. Bruke metakode noindex

Som diskutert ovenfor, kan du prøve dette, men kan ikke se rent ut for brukeren.

Advarsel

Verdt å lese om problemet med noindex vs robots.txt-blokkering her: https://support.google.com/webmasters/answer/93710?hl=no

  • Jeg vil ikke gå etter en annen URL-struktur for "grunnleggende" og "godt utformede" profiler, ettersom kule URI-er ikke endres; med din tilnærming, når noen endelig fyller ut profilen sin, Profil-URL-en deres ville endres. Jeg kjenner ganske godt til de subtile forskjellene mellom robot.txt og metakoden for roboter, og det tror jeg hvis Jeg følger denne tilnærmingen, metakoden er uansett overlegen (Google er tillatt for å besøke siden, men ba om ikke å gjøre det indeksere det).Spørsmålet koker virkelig ned til "blokkerer jeg eksplisitt disse sidene eller ikke?"
  • Når du sier at "å bruke noindex metakode (...) kanskje ikke ser ren ut for brukeren", hva mener du da? Hvordan vil brukeren noen gang bli påvirket av en metakode?
  • 1 URL-endring: Det bør være OK da gammel URL kan omdirigere til den nye. Det er helt OK å bytte url om nødvendig. Det som er viktig er hvordan det håndteres. Det er ti grunner til at en URL kan endres når nettet endres. Tenk deg hva som har skjedd de siste 2 årene, folk bytter til HTTPS .... Så, tenk fremover og implementer en riktig løsning. Kult URL: Ikke aktuelt i disse dager antar jeg.
  • Ren for bruker: Det jeg mente er at brukeren ikke ville vite om noindex, men å ha tydelig annen URL-struktur, kan noen merke. Og du kan også oppmuntre folk til å ha struktur 1 url. Se hva Google gjorde, G + kom med bruker-ID og basert på kvaliteten på profilen Google tilbød tilpasset URL.
  • 1 Google kan gjennomsøke NoIndex-sider som normale websider, det dukket bare ikke opp i søkeresultatet. Google gir tilpasset brukernavn til bare de brukerne som virkelig bruker plattformen deres, så godt brukernavn kan være tilgjengelig for andre.

fungert for deg: Charles Robertson | Ønsker du å kontakte oss?