Técnicas de SEO são técnicas que tem por objetivo melhorar o ranqueamento de um site nos principais mecanismos de busca da internet.
Aula 2 - SEO
SEO (Search Engine Optimization) é um conjunto de técnicas para
ranquear sites em mecanismos de busca como o
Bing,
Yahoo! e
Google.
Essas técnicas servem não só para sites inteiros, mas também para
páginas específicas dentro de um site deixando-as mais visíveis para
os usuários. Estatisticamente os usuários tendem a clicar nos três
primeiros sites da lista de busca (após os anúncios).
O SEO tem foco em resultado e em tornar a página mais amigável
para os mecanismos de busca. O desenvolvimento foi baseado em
estudos realizados nos algoritmos desses mecanismos, buscando os
pontos mais relevantes para eles, muito embora esses algoritmos
sejama atualizados frequentemente.
Outro foco é em resultados orgânicos que podem ser
interpretados como a visita ao site que se está divulgando ou em
outras visões o ato de o usuário concluir uma compra do produto que
se está vendendo (mesmo que o site não seja necessáriamente de
e-commerce).
Os pontos que mais influenciam um site nos mecanismos de busca são:
Conteúdo relevante (algo que agregue valor informativo ao site);
Técnicas de semântica no código (utilização de tags mais sensíveis
aos mecanismos)
URL
é o modo em que se acessa o site. Uma URL otimizada deve manter
alguns padrões, entre eles:
Não conter acentuação gráfica.
Não utilizar underline (Utilizar no máximo hífen).
Seguir o idioma padrão (mesmo nos subdomínios e paths).
Utilizar a URL no keyword do site.
Uma forma de otimizar URLs que estejam fora de padrão é utilizar o
redirect (código http 301).
As meta tags são essenciais para o código html não
só por questões de SEO mas também por algumas funcionalidades que
elas conferem ao código.
Elas respondem por 60% do SEO onpage, ou seja para cada página, e
através delas que os robos de busca captam informações do site.
Elas se localizam no <head> da página. As principais meta tags
são:
charset: indica qual o tipo de codificação de caracteres é
utilizada.
viewport: indica que o site é responsivo (principalmente
para dispositivos mobile).
description: resumo do conteudo da página.
robots: interpreta o arquivo robots.txt
google-site-verification: indica que o site é verificado
pelo google. (Contém um hash?)
Outras tags podem se referir a redes sociais (ex: og, article,
twitter). (?)
A tag <title> é uma das principais head tags. Ela vai indicar
informações sobre a página não só para o SEO mas também para o
usuário.
Entre os itens a serem observados no title estão:
Estar entre 40 a 65 caracteres;
Utilizar palavras chave, condizentes com o conteúdo da página,
independentemente (não utilizar o mesmo para todo o site).
Utilizar palavras que estejam bem cotadas nos 'trends', utilizando
ferramentas de avaliação.
A meta tag description fica logo abaixo da tag <title> e contém
um resumo do conteúdo do site. É o conteúdo que aparece no buscador
logo abaixo do link para o site.
O ideal é que tenha próximo a 155 caracteres e não é relevante para
os motores de busca mas sim para o usuário. É importante ter na
descrição uma call to action que é o que se desja que o
usuário faça no site (uma compra, aviso sobre uma promoção, um
convite para conteúdo grátis, ou algo que interesse ao ususário).
Portanto é um item ligado a 'UX'.
Deve-se manter alguma palavra chave na description (pelo menos de
uma a três) pois também são palavras de 'call to action'.
O arquivo robots.txt fica na raiz do site e indica quais as
partes que não se deseja que sejam acessadas pelo mecanismo de
busca. Quando inserimos informações neste arquivo estamos
controlando o acesso a pesquisa dos robos. Por exemplo uma área do
site direcionada a 'fale conosco' não precisa ser ranqueada.
Para bloquearmos determinado diretório ou determinada página no
arquivo robots.txt utilizamos a palavra
Disallow: /nome_do_diretório ou
Disallow:nome_da_página.
Para não indexar determinado diretório ou página utilizamos a regra
Noindex: /nome_do_diretório ou
Noindex:nome_da_página.
Podemos autorizar os acessos com a regra Allow: .
Existem ferramentas na Web que auxiliam o processo de criação do
arquivo robots.txt como em SEO Book Robots.txt Tutotial.
Além do arquivo robots.txt podemos também criar uma meta tag
com comandos específicos para o rabots em cada página. Para isso
utilizamos a seguinte sintaxe:
<meta name="robots" content="regra_a_ser_aplicada">
O sitemap facilita a navegação dos usuários e ajuda a
entender melhor como o site foi estruturado, além de diminuir a
quantidade de links que o usuário precisa clicar para chegar a
determinado ponto. O sitemap é uma lista de todos os links
das páginas que podem ser acessadas. Ele funciona como um índice do
conteúdo do site.
O sitemap facilita também aos mecanismos de busca a localizar
os links do site e indexá-los.
Veremos aqui algumas ferramentas do Google para ajudar nas análises
de dados.
Google Trends
Uma ferramenta para verificar as palavras chave mais utilizadas em
determinado tempo / espaço / região / assunto. Oferece informações
gráficas e permite a comparação de diversas palavras.
Google WebmastersConjunto de ferramentas para análises de performance de sites. Hoje
está um pouco diferente do apresentado na aula.
PageSpeed Insights(PageSpeed toolsVerifica sites pela URL e apresenta sugestões para melhoria e
otimização.
Rich snippets é uma formatação do Google para apresentar
informações diferenciadas. Permite apresentar entre outras coisas
imagens e 'ratings' que são apresentadas junto a descrição na busca.
Facilita a exibição do conteúdo e é interessante poara o usuário,
mas não foca em performance SEO.
Podemos verificar mais informações em
Google Developers.
Basicamente a construção dos snippets é através de código
html com algumas propriedades específicas nas tags.
Breadcrumbs (migalhas de pão) são trilhas de navegação que
indica o caminho utilizado até chegar em determinada página dentro
do site. è importante para o SEO pois facilita o caminho dos
buscadores e ajuda a manter a relação entre páginas pais e filhas.
Os breadcrumbs devem ser posicionados no início das
páginas, logo após o menu principal, em letras menores e apenas após
a página home, pois não se justifica a utilização na página inicial.
É importante manter um bom índice das páginas e não esquecer de
fazer a manutenção dos links das páginas no 'breadcrumbs'.
A página 404 indica que a página não está disponível por
algum motivo. Ela não é importante para o SEO mas é muito importante
para o usuário. A página 404 default indica apenas 'Not
Found' mas não dá qualquer opção para o usuário.
Entretanto podemos fazer alguma customizações que permitem alterar
essa mensagem de modo a redirecionar o usuário para um novo local,
apresentar uma opção de contato ou pelo menos mostrar que houve sim
um erro, mas que o site ainda está lá(quando passamos uma página
personalizada indicamos que temos controle(!) do problema). Esta
página é uma página interna do site e é um bom exemplo de página
para se excluir do robots.txt com a regra Noindex:.
O principal para o SEO é o conteúdo. O conteúdo deve ser
relevante para o usuário, deve ter seu foco baseado nele, ser
acessível e amigável na utilização. Deve buscar o ineditismo, pois
conteúdos duplicados são detectados pelos motores de busca.
Prezar pela semântica do html, utilizando as tags de título e
sub-título.
O sitemap.xml é uma arquivo com todos os URLs que devem ser
indexados pelos mecanismos de busca. Ele contém informações como
data da última modificação do site, frequencia de atualização,
prioridade da URL em relação as outra URLs do site.
PAra informações sobre o formato do sitemaps.xml consultar
sitemaps.org.
O sitemaps.xml ajuda na velocidade com que os mecanismos de
busca localizam os URLs do site.
A performance do site influencia o SEO pois interfere na experiencia
do usuário, principalmente se o site demora para carregar ou é pouco
otimizado, pois isso pode afasta-lo. Estudos indicam que o usuário
espera em média 5s para o 'page load' acontecer.
Baseado nisso é importante, sempre que tivermos um processo lento,
carregar uma página que sinalize ao usuário que a página já está em
carregamento.
Para garantir bons resultados no site devemos utilizar servidores
com bom tempo de resposta.
Outra forma de otimizar o site é utilizar arquivos minificados,
utilizar imagens comprimidas, colocar os scripts no final da página
(para evitar o tempo de carregameto do script).
Para minificar arquivos estudar a utilização do !Gulp