Requerimientos Mínimos para Comenzar Con la Optimización Seo

En estos tiempos en los cuales ya la mayor parte de las empresas pueden acceder a tener un sitio web la competencia ya no se da en quien esta en la web y quien no, sino en el posicionamiento a continuación se enunciarán una serie de tips a tener en cuenta para tener lo mínimo e indispensable para que nuestra página web pueda ser indexada por los buscadores más im

Lic. Natalia Mancilla
Lic. Natalia Mancilla
26 de July · 491 palabras.
x

🕘 Resumen

En la optimización de páginas web, es importante tener en cuenta no solo el Googlebot, sino también a los usuarios. Google busca humanizar al Googlebot porque al final, son los usuarios quienes visitarán la página. El contenido de la página debe coincidir con el título y palabras clave utilizadas. La arquitectura del contenido debe ser clara para que el usuario no se pierda y el tiempo de carga debe ser óptimo. Hay que tener un sitio optimizado para los buscadores, incluyendo un sitemap, un archivo robots.txt y meta tags correspondientes. Un "sitemap.xml" proporcionará una lista de las páginas que se desea que se indexen, junto con información adicional que haga la visita más eficiente. El archivo robots.txt controlará el flujo de los robots y determinará qué zonas de la web serán accesibles para los usuarios, pero no para los buscadores. La eliminación del contenido duplicado es muy relevante ya que aumenta el flujo de visitas. En resumen, para una buena optimización SEO, es necesario pensar en la humanización del Googlebot y en la satisfacción del usuario final.
 Antes que nada cuando optimizamos una página web hay que tener en cuenta que no solo esta será optimizada para el famoso Googlebot (el robot de rastreo web de Google el cual descubre páginas nuevas y actualizadas y las añade al índice de Google,) sino también para los usuarios, más que nada debemos orientarnos a ellos porque lo que esta queriendo hacer Google es humanizar cada vez más al Googlebot, porque al fin y al cabo el que termina leyendo la página es el usuario del cual podremos sacar provecho si orientamos todo nuestro esfuerzo a que este navegue de una forma más amena.
Por ello una de las cosas a tener en cuenta es el contenido de la página, este tiene que concordar con el titulo o palabras claves que hemos utilizado como relevantes ya que de nada sirve llamar la atención con la palabra “gratis” por ejemplo si cuando el usuario accede a nuestro sitio web lo que encuentra no es gratis, además el contenido debe tener una buena arquitectura para que el usuario no se pierda, como así también el tiempo de carga del sitio web debe ser el que poseen todos los sitios en promedio ya que hay gente que todavía sigue teniendo una conexión lenta a la Web.
Tampoco no debemos olvidar tener un sitio optimizado para los buscadores para ello es necesario contar mínimamente con un sitemap, con un archivo robot.txt y con los meta tags correspondientes a continuación diremos cuales son las ventajas de incluir ello en nuestra página web:
Un“sitemap.xml” suministrará a los buscadores una “lista” de las páginas que nos interesa que se indexen, junto con alguna información adicional que haga la visita más eficaz.
Archivo robot.txt mediante el cual controlaremos el flujo de algunos robots, determinaremos que zonas de nuestra web será accesible para los usuarios, pero no para los buscadores ya que carece de contenido relevante como por ejemplo la página de contactos, eliminaremos contenido duplicado, lo cual es muy relevante ya que si eliminamos el contenido duplicado los buscadores nos posicionarán muy alto, aumentando el flujo de visitas.
Otra cosa que es relevante es tener nuestros meta tags la cuales son etiquetas html que se incorporan en el encabezado de una página web y que resultan invisibles para un visitante normal, siendo de gran utilidad para los navegadores que se valen de esta información, los meta tags más importantes son: autor, título, fecha, palabras clave, descripción, etc.
Además nuestro sitio web tiene que estar validado en la W3C, dado que este ENTE valida aquellas páginas que no tienen errores en el código y que por ende son aptas para la lectura de los robots.
Teniendo todo esto en nuestro sitio web es un buen comienzo para empezar a trabajar en el posicionamiento.

  • Lic en publicidad
  • Webmaster
  • Encargada del marketing online en www.imgloading.com.ar

Comparte tu conocimiento y tus intereses con el mundo.

Publica un artículo →