Recommended Posts

Ho provato a fare questa domanda in due forum per webmaster, ma non ho ancora ottenuto una risposta :peo: Se non ottengo risposta neanche qui mi toccherà provare su stackoverflow :qwo:

 

Ci provo:

 

Se ho delle pagine create dinamicamente con php e quindi generate prendendo un pezzetto di qui e un pezzetto di là (con articoli presenti, per esempio, nel db), come possono i motori di ricerca valutarne il contenuto ai fini del posizionamento?

La pagina non sussiste finché un utente non clicca su un link e php mi costruisce dinamicamente la pagina con l'articolo presente nel database.

Ai crawler bastano la sitemap e i link (es. menu) presenti nel sito? I crawler si comportano, in un certo senso, come gli utenti? Ero convinta che fosse necessaria una certa "staticità" delle pagine e ora, effettivamente, mi rendo conto che è stato sciocco non averci mai pensato.

Grazie :flower:

 

Condividi questo messaggio


Link di questo messaggio
Condividi su altri siti

@Adenina so che il tuo post è abbastanza datato ma ci provo ugualmente...però per poterti rispondere dovrei avere informazioni maggiori sul sito. Non è comunque un problema che il sito abbia contenuti dinamici ai fini dell'indicizzazione...dipende sempre da una serie di fattori quindi...prima di dilungarmi in voli pindarici per poi aver preso in considerazione 999 possibilità e perdermi  proprio la 1.000esima che è quella che serve a te dimmi se hai ancora bisogno di supporto e ne possiamo parlare :sisi:

Condividi questo messaggio


Link di questo messaggio
Condividi su altri siti

@Adenina so che il tuo post è abbastanza datato ma ci provo ugualmente...però per poterti rispondere dovrei avere informazioni maggiori sul sito. Non è comunque un problema che il sito abbia contenuti dinamici ai fini dell'indicizzazione...dipende sempre da una serie di fattori quindi...prima di dilungarmi in voli pindarici per poi aver preso in considerazione 999 possibilità e perdermi  proprio la 1.000esima che è quella che serve a te dimmi se hai ancora bisogno di supporto e ne possiamo parlare :sisi:

 

Gentilissimo ReMindHer, ma in realtà ho già trovato la soluzione :) Grazie comunque :flower:

Condividi questo messaggio


Link di questo messaggio
Condividi su altri siti

Non che questo problema mi interessi ma potresti postare la soluzione che hai trovato o un link?

Magari può essere utile a qualcun'altro :^^:

 

Se c'è una cosa che non sopporto quando sto cercando qualcosa é quando si trovano discussioni marcate come risolte e poi alla fine terminano con "non importa, ho già trovato la soluzione" :siciao:

Condividi questo messaggio


Link di questo messaggio
Condividi su altri siti

Hai ragione Noble :sisi:

Cmq, la risposta è davvero molto semplice e si evince dalla spiegazione di crawler fornita da Wikipedia:

 

"Un crawler è un tipo di bot (programma o script che automatizza delle operazioni). I crawler solitamente acquisiscono una copia testuale di tutti i documenti visitati e le inseriscono in un indice.

Un uso estremamente comune dei crawler è nel Web. Sul Web, il crawler si basa su una lista di URL da visitare fornita dal motore di ricerca (il quale, inizialmente, si basa sugli indirizzi suggeriti dagli utenti o su una lista precompilata dai programmatori stessi). Durante l'analisi di un URL, identifica tutti gli hyperlink presenti nel documento e li aggiunge alla lista di URL da visitare. Il processo può essere concluso manualmente o dopo che un determinato numero di collegamenti è stato seguito.

Inoltre i crawler attivi su Internet hanno la facoltà di essere indirizzati da quanto indicato nel file "robots.txt" posto nella root del sito. All'interno di questo file, è possibile indicare quali pagine non dovrebbero essere analizzate. Il crawler ha la facoltà di seguire i consigli, ma non l'obbligo."

 

:ciao:

Condividi questo messaggio


Link di questo messaggio
Condividi su altri siti

@Adenina prego figurati...ma occhio a lavorare esclusivamente col crawler...correttamente il file robots.txt da inserire nella lista è il primo passo, il secondo è indirizzare google a quel file...ma poi c'è tutta la fase relativa ad indicizzazione e posizionamento che è un altro paio di maniche :sisi:

Condividi questo messaggio


Link di questo messaggio
Condividi su altri siti

@Adenina prego figurati...ma occhio a lavorare esclusivamente col crawler...correttamente il file robots.txt da inserire nella lista è il primo passo, il secondo è indirizzare google a quel file...ma poi c'è tutta la fase relativa ad indicizzazione e posizionamento che è un altro paio di maniche :sisi:

 

In realtà il primo vero passo è la sitemap.xml :mhm: il file robot.txt si può anche non includere se non hai pagine da nascondere ai crawler :sisi:

L'indicizzazione è importante e non sempre controllabile. Il posizionamento organico è l'ultimo importantissimo passo ed è un mondo di enorme impegno ed aleatorietà se non sei un SEO expert :asd:

Condividi questo messaggio


Link di questo messaggio
Condividi su altri siti

In realtà il primo vero passo è la sitemap.xml :mhm: il file robot.txt si può anche non includere se non hai pagine da nascondere ai crawler :sisi:

L'indicizzazione è importante e non sempre controllabile. Il posizionamento organico è l'ultimo importantissimo passo ed è un mondo di enorme impegno ed aleatorietà se non sei un SEO expert :asd:

Esatto @Adenina ma non è poi così complicato...complesso forse e sicuramente lungo ma applicare almeno le regole base per una buona indicizzazione dovrebbe essere una buona prassi e non un opzione a meno che il proprio sito non sia un blog allo stato puro(del tipo "...sono uscito dal bagno...ora mi sto bevendo un caffe....mi vado a fumare una sigaretta..." :asd: ) :ok:

Condividi questo messaggio


Link di questo messaggio
Condividi su altri siti
Ospite
Questa discussione è chiusa.