1 / 25

Guía SEO. Comunicar contenidos y servicios a través de buscadores Estrella Álamo Álvarez Workshop Comunicar en Red. Univ

Guía SEO. Comunicar contenidos y servicios a través de buscadores Estrella Álamo Álvarez Workshop Comunicar en Red. Universidad de Navarra. Enero 2010. Guía SEO. Comunicar contenidos y servicios a través de buscadores Definición Funcionamiento de los buscadores. Indexación

odette
Télécharger la présentation

Guía SEO. Comunicar contenidos y servicios a través de buscadores Estrella Álamo Álvarez Workshop Comunicar en Red. Univ

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Guía SEO. Comunicar contenidos y servicios a través de buscadores Estrella Álamo Álvarez Workshop Comunicar en Red. Universidad de Navarra. Enero 2010

  2. Guía SEO. Comunicar contenidos y servicios a través de buscadores • Definición • Funcionamiento de los buscadores. Indexación • Arquitectura de la información • Contenido duplicado • Redirecciones • Relevancia • Estudio de las palabras clave • Optimización del código • Popularidad • SEO y Drupal • Qué cosas hacer • Qué cosas no hacer • Fuentes de información

  3. Toda web tiene 2 tipos de usuarios que la visitan: las personas (usuario final). Tareas: informarse sobre algo, comprar, registrarse, comunicarse... los robots (usuario intermediario). Tarea: informarse sobre las webs para responder a las búsquedas de las personas. El SEO facilita esa tarea. Los buscadores procesan los datos obtenidos con el objetivo de satisfacer la necesidad de información de las personas con la mayor relevancia, calidad y actualidad posible. Por lo tanto, la regla de oro a aplicar será el SENTIDO COMÚN. Definición ¿Qué es Search Engine Optimization? El proceso de mejora de una web para que atraiga el mejor tráfico posible (cantidad/calidad) a través de buscadores utilizando las técnicas de posicionamiento orgánico o natural.

  4. Utilizan un PROCESO de trabajo que incluye las siguientes acciones: Encuentran Descargan Almacenan Detectan y analizan Recuperan la información 1) encuentran : las arañas/bots encuentran las páginas SIGUIENDO ENLACES. Por eso es IMPRESCINDIBLE usar enlaces planos y/o rastreables asegurarse de que todo está enlazado desde algún sitio (está en la naturaleza del hipertexto) Ejemplo de enlace no rastreable: <a id="Buscador_C1_BuscarNoticia“ href="javascript:__doPostBack('Buscador_C1$BuscarNoticia','')">Buscar noticias</a> Funcionamiento de los buscadores. Indexación ¿Cómo extraen la información y qué hacen con ella? A portrait of the Googlebot

  5. 2) descargan: La velocidad de descarga es uno de los nuevos factores del ranking. Varios CMS (incl. Drupal) incluyen opciones de cacheo y compresión de Javascript y CSS que ayudan a acelerar la carga Las herramientas para webmasters de Google (WMT) te informa del tiempo de descarga, cuántas páginas ha rastreado y el peso. También conviene utilizar las herramientas de Yahoo! Site Explorer o de Bing Funcionamiento de los buscadores. Indexación

  6. detectan y analizan: extraen las palabras contenidas en cada página y señales que indican la importancia relativa de esas palabras en el documento (frecuencia, etiquetado semántico, sinónimos, posición) detectan las palabras que sirven para crear enlaces detectan enlaces en las páginas y los analizan como señales de calidad y/o popularidad. procesan otras señales: geolocalización, IP, idioma… 4) almacenan: guardan una copia de la página (caché) en sus servidores. Funcionamiento de los buscadores. Indexación

  7. Por otra parte, también se procesa la consulta y la estrategia de búsqueda. Las palabras clave es lo que la gente busca Funcionamiento de los buscadores. Indexación "The results we show you are based not only on what we know of the Web, but also what other people have searched for […] I wish people would put more effort into thinking about how other people will find them and putting the right keywords onto their pages. Search is about getting lots of signals and putting them all together […] Signals from people are the best signals […] The art of ranking is how do you collect lots of signals then put them together? “ Udi Mamber, VP de Search Quality de Google • 5) recuperan la información • Es decir, contestan a la pregunta del usuario con los datos que tienen, ordenándolos según un algoritmo de ranking o clasificación cuyo objetivo es devolver los más relevantes a la consulta. • La ordenación depende la combinación de distintos factores: • El Pagerank es uno de los componentes del algoritmo de Google para ordenar resultados. Se trata de un sistema de análisis de links (popularidad) • Trustrank (autoridad de la fuente) • Feedback de los usuarios y su comportamiento (Búsquedas personalizadas) • evaluadores humanos • penalizaciones por spam • agrupación de resultados por tema (Universal Search) o por actualidad (QDF, Tiempo Real)

  8. Organizar la arquitectura web es FUNDAMENTAL para que sea fácilmente rastreable y proporcionar a los buscadores una idea clara sobre tu temática= más páginas, más rápido, más ranking. La arquitectura de información debería idearse durante la fase de planificación del proyecto La estructura se expresa mediante URLs. A efectos SEO, en la sintaxis de una URL nos interesa: Dominios Nodos (rutas o directorios) Archivos Dominios : top level domains: .es, .com, .edu… o subdominios como www.unav.es o es.wikipedia.org Arquitectura de la información La estructura de un site influye en su posicionamiento

  9. Arquitectura de la información: contenido duplicado Se considera contenido duplicado la aparición de considerables bloques de contenido que coinciden completamente o que son muy parecidos. Evitar la duplicación de URLs ayuda a la coherencia interna y mejora la popularidad al impedir la división de los enlaces • Dominios, protocolos (para los usuarios es transparente, pero técnicamente son diferentes) • http://www.unav.es y http://unav.es • http://www.unav.edu y http://www.unav.com • http://www.unav.es y https://www.unav.es • Páginas • http://www.unav.es/admision/alojamiento/colegiosmayores/ y • http://www.unav.es/admision/alojamiento/colegiosmayores/default.html • http://www.unav.es/osp/ • http://www.unav.es/osp/bae/default.html • http://www.unav.edu y http://www.unav.es/english/ • http://www.unav.es/servicio/profesores/ • http://www.unav.es/servicio/profesores/home/ • http://www.unav.es/servicio/profesores/home/home

  10. Arquitectura de la información: contenido duplicado • Soluciones: • 1º Hacer una auditoría de enlaces y redirecciones, detectar los duplicados y decidir cuál será la URL preferente o canónica • 2º asegurarse de que cada página es: • a) singular - solo disponible bajo una única URL o • b) redirige a una URL preferente mediante una redirección 301 o • c) usa la meta canónica para apuntar a la URL preferida • 3º Indicárselo a Google a través de las herramientas para webmasters

  11. Arquitectura de la información: redirecciones • Redirecciones y respuestas: • El protocolo http tiene definidos unos códigos numéricos de respuesta que se transmiten entre el servidor que envía la página y el cliente (navegador o robot) que la solicita. • A efectos de SEO los principales códigos de respuesta HTTP son: • 200 (Todo OK, te devuelvo la página que me has pedido) • 301 (movido permanente, ya no está aquí, mira en esta otra dirección) La redirección preferente: transmite Pagerank y anchor text • 404(no encontrado) Hacer páginas de error usables, que recuperen el tráfico.

  12. 2. Nodos Organizan los contenidos en el servidor según una jerarquía condicionada por los objetivos, tamaño y tipo de contenido del site . estructura en árbol, equilibrada, organizada por temas, según el estudio de palabras clave no demasiado profundos. Lo más importante situado cerca del dominio, de la raíz, y/o enlazado desde portada. - URLs cortas y semánticas para proporcionar contexto a los usuarios y a los robots y porque son más fáciles de utilizar y recordar. www.unav.es/derecho/estudios/licenciatura.html las secciones interiores de tu site te permiten acceder a las búsquedas de la “larga cola” y pueden ser enlazadas desde fuera otorgando más capacidad de ranking. www.unav.es/osp/bae/ www.unav.es/departamento/farmacologia/pat entes www.unav.es/departamento/farmacologia/proyectos -investigación 3. Archivos Tener presente el estudio de keywords para dar nombre a los archivos sean páginas html, vídeos o imágenes… www.unav.es/ciencias/masterBCM/pagina2.html Arquitectura de la información

  13. Arquitectura de la información inconsistencia de arquitectura, si la página está en inglés debería estar bajo el directorio /english/ o en el dominio .edu • Soluciones: • Escoger una versión y redirigir todas las páginas antiguas • Utilizar palabras clave en el mismo idioma para nombrar las carpetas • Geolocalizar: • Obtener enlaces en inglés de países anglo • Usar la meta de idioma (Bing) • Indicar ámbito geográfico en las herramientas para Webmasters.

  14. Algunos problemas: Páginas dinámicas, URLs no semánticas o con demasiados parámetros, ids de sesión, etc. se solventa creando unas reglas de reescritura que se aplican con unos módulos especiales disponibles en los servidores Apache e IIS. Tecnologías obstáculo: Ajax, Flash o determinados javascript obstaculizan el acceso a una pagina. Especialmente en menús hay que utilizar enlaces planos y las alternativas accesibles de estas tecnologías. Arquitectura de la información

  15. Algunos archivos útiles: El mapaweb: hacer una página a modo de índice de contenidos para garantizar que todo lo que sea importante para tu site esté enlazado. En el pie de la web, cada página no + de 100-150 enlaces. El robots.txt: ¡usar con precaución! es posible que haya páginas que no quieras que aparezcan en los resultados de búsqueda. Con este archivo de texto que se cuelga del directorio raíz le dices al robot dónde no debe entrar. Sigue las reglas del protocolo de exclusión de robots. Un error al redactarlo puede ser catastrófico. Comprueba que no has metido la pata usando la herramienta de comprobación que tienes en la WMT. El sitemap: archivo XML con el inventario de tus URL con las que alimentar al robot. Su importancia y utilidad es bastante discutida. Si lo usas asegúrate de refinarlo: solo incluir URL canónicas (evitas la duplicación) y no incluir URLs que redirijan. Meterlo todo es una pérdida de tiempo y recursos. Arquitectura de la información

  16. a) Selección de palabras clave. FUNDAMENTAL Qué elegir: según los objetivos establecer cuáles son las palabras que atraerán el tráfico Hacer listados, refinarlos, priorizarlos: Búsquedas relacionadas con “estudiar farmacia”: porque estudiar farmacia, precios farmacia, salidas profesionales farmacia, ciclo formativo farmacia, licenciado en farmacia, farmacias santiago de compostela, farmacia comunitaria, estudiar auxiliar farmacia, donde estudiar farmacia… Conjuntos: alojamiento > colegios mayores, residencias, bolsas de pisos, apartamentos + campus Analizar las frases que se están buscando en los buscadores, la competencia que tiene esa frase, la calidad del posicionamiento de esa competencia y en definitiva, el determinar la factibilidad de posicionar dichas frases en los primeros lugares. Error frecuente: escoger palabras claves que aunque describen tu sitio o servicio en realidad no son utilizadas. Se comprueba mirando en Analytics y en las estadísticas internas de tráfico de búsqueda Cómo: herramientas externas de selección de palabras clave y data mining de tu propio buscador Dónde usarlas: Titulo de la página HTML (Title tags) Título del contenido (titular) Nombre de las categorías (menús, miga de pan..) Textos de la página (Body copy) Texto de los enlaces (anchor text) Imágenes, videos, textos alt=“” URLs Relevancia: estudio de las palabras clave

  17. b) Redacción relevante tanto en el código HTML (marcado semántico) como en el propio texto contenido en las páginas. Título: lo más importante y lo que aparece a primera vista en los resultados Descriptivo y corto (70 caracteres) Diferente para cada página Estructura piramidal Errores frecuentes: No tener título o compartirlo en todas las páginas de una sección (o carpeta) www.unav.es/facultad/ciencias/investigacion Hacer la misma redacción que en la miga de pan. Al contrario, debe ir de lo más particular a lo más general. Puede interesar tener la marca al final Meta tags Description: no sirve para posicionar, pero sí para atraer el clic una vez se muestran los resultados. 150 caracteres y que llame la atención. Usar algunas de las palabras del título Keywords: solo las usa Yahoo pero deben ser específicas para el contenido de la página y no genéricas de toda la Universidad Encabezados <H> y otros marcados (cursiva, negrita) h1: título de la página y h2, h3…: subsecciones Errores frecuentes: Emplear los encabezados como un sistema de diseño del aspecto de la página, de tamaños de letra… Textos: si la palabra clave no se menciona por lo menos una vez en el texto del cuerpo del sitio, entonces la página no será considerada relevante para ese término. Relevancia: optimización del código

  18. Relevancia: optimización del código • Elementos multimedia (img, videos, presentaciones, PDF...) • Frecuentemente olvidados traen tráfico desde búsquedas alternativas como Google Imágenes. Permiten repetir palabras clave en el texto de la página (sin caer en el spam) • utilizar nombres descriptivos en el archivo: carcinoma.gif • alt="" en las imágenes (además de que mejora la usabilidad) • Describir los vídeos: poner el titulo y la descripcion pegados en el código al elemento multimedia. Si es posible, transcribirlos. • PDF: también se indexan, incluir un enlace al departamento o servicio que lo produzca y también a la universidad • Errores frecuentes: • Uso de imágenes para insertar textos (a modo de banner). www.unav.es/facultad/medicina/

  19. Popularidad: obtención de enlaces • Enlaces internos entre páginas del mismo site • Miga de pan • Enlazando más lo más importante (menús) • Contenidos relacionados (cross linking) • Errores frecuentes: • Desperdiciar los enlaces con un anchor como "clic aquí" o un "ver más” • Enlaces externos desde otras webs FUNDAMENTAL • Desde páginas relevantes. Mejor optar por la calidad (wikipedia, univs y centros de investigación, organismos oficiales, hospitales, medios de comunicación…) • RSS • Enlaces desde post en los blogs y en los comentarios de éstos • Enlaces desde redes sociales • Foros, sitios de respuestas… • Guías y directorios • Intercambios de enlaces (solo sitios de confianza) • Crear una estrategia de consecución de enlaces • Errores frecuentes: • No enlazar a otros sitios que lo merecen • Pretender enlazarlo todo • No controlar los enlaces rotos • Crecimientos desmesurados ¿spam?

  20. Ejemplos buenas prácticas

  21. SEO y Drupal • Módulos básicos para gestionar el SEO : (hay más) • SEO Checklist • Google Analytics • Page titles, Link titles • Pathauto, Path redirect, Global redirect • Taxonomy title • Meta tags • Site map • Syndication • RobotsTxt • Top Searches • Drupal 6 Search Engine Optimization Book • http://www.volacci.com/drupal-6-search-engine-optimization-book • SEO Drupal: site que recopila y comenta artículos, módulos, tutoriales... • http://www.seodrupal.org/ • Drupal SEO: • http://tips.webdesign10.com/drupal-seo • Módulos SEO para Drupal: incluye una SEO checklist para trabajar en distintos proyectos: • http://www.kristen.org/content/drupal-seo-modules • Canonical tag para Drupal: • http://yoast.com/wp-content/uploads/2009/02/drupal-canonical-urls.zip

  22. Qué cosas hacer Actuar con sentido común: ponerse siempre en el lugar del visitante para brindarle la información en la forma que le sea mas relevante.

  23. Qué cosas no hacer Dificultar el descubrimiento por parte de la araña • URLs (exceso parámetros, trampas en bucle…) • Tecnologías obstructivas • Enlaces rotos o muchos time-out • Páginas “pesadas” Duplicar o mostrar páginas de contenido irrelevante Sobreoptimizar o engañar • sobreoptimizar: forzar el posicionamiento abusando de palabras clave en el html • spam: texto oculto, doorways, cloaking…

  24. Fuentes de información

  25. Muchas gracias Estrella Álamo Álvarez Marketing Director Red Karaoke Sing, Share, Play! www.redkaraoke.com | www.redkaraoke.es | www.redkaraoke.jp | www.redkaraoke.cl Contacto:

More Related