ti-enxame.com

Como posso me livrar de páginas de categoria no Joomla

Eu criei várias categorias no meu site Joomla para manter meus artigos organizados, mas notei que o Google pode ver essas categorias e o ID e o nome da categoria estão sendo adicionados aleatoriamente ao final do meu URL.

Aqui está um exemplo:

http://www.edesix.com/products/85-news

Isso para mim não faz sentido o que é sempre. E o URL é muito confuso!

Existe uma maneira de impedir que essas páginas de categoria sejam exibidas e escolhidas pelo Google?

Obrigado

5
Laura

Este post destaca um problema comum com o Joomla e outros CMSes. Sem a configuração correta, muitos URLs diferentes podem ser indexados para a mesma página.

O Joomla aplica um ID para cada categoria e cada item. Para links gerados automaticamente, todos os processos do Joomla são esses IDs (por exemplo,/236-category-name/121-article-name) - os nomes de categorias adicionais e os nomes de artigos são irrelevantes. E essas páginas podem ser indexadas por bots em uma variedade de variações (por exemplo, botões de impressão ou e-mail, feeds, trailing/ou trailing index.php etc.).

Se você esqueceu o comentário acima de @FFrewin, ele oferece uma explicação mais detalhada em Como lidar com conteúdo duplicado/URLs no Joomla?

Eu gostaria de ir direto ao ponto sobre as melhores maneiras de corrigir isso e adicionar alguns pontos.

Você está fazendo isso sozinho? Você pode ser o problema da maneira como configurou os itens de menu e o que incluiu no mapa do site.

Vários itens de menu para a mesma página em diferentes menus, em vez de usar um menu e usar menu item alias para vincular a esse item de menu preferido ou executar uma extensão de mapa do site e não bloquear/remover duplicatas.

Crie um menu oculto: aquele que contém links diretos de menu para todas as suas páginas estáticas que ainda não estão cobertas por itens de menu visíveis. Isso força o Joomla a usar como padrão o link dessa página ao exibir páginas.

Evite deixar categorias vazias ou categorias desnecessárias e artigos fictícios publicados (cancele a publicação ou, melhor ainda, exclua-os).

Também é melhor evitar subcategorias, se possível, onde a categoria principal não contém páginas - se você precisar usar categorias aninhadas, use um plug-in de redirecionamento para redirecionar a página da categoria principal vazia para algum lugar. Melhor ainda, crie uma página de visão geral para essa categoria e vincule-a ao seu próprio item de menu.

Para sites menores , é possível evitar problemas facilmente configurando .htaccess, robots.txt e uma extensão de redirecionamento de URL para redirecionamentos 301.

Pesquise na categoria Gerenciamento de Site JED o redirecionamento de URL http://extensions.joomla.org/category/site-management

htaccess O uso correto de htaccess é provavelmente a maneira mais poderosa de gerenciar seus links no site, mas requer algum aprendizado. Usando o arquivo .htaccess do Joomla, você pode resolver alguns dos problemas duplicados de URL, como a remoção de barras:

RewriteEngine On
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule ^(.+)/$ http://%{HTTP_Host}/$1 [R=301,L]

e roteamento de URLs www e não www:

redirecionamento www para não www

RewriteEngine On
RewriteCond %{HTTP_Host} www.example.com
RewriteRule (.*) http://example.com/$1 [R=301,L]

redirecionamento não www para www

RewriteEngine On
RewriteCond %{HTTP_Host} ^example.com [NC] 
RewriteRule ^(.*)$ http://www.example.com/$1 [L,R=301]

Robots.txt (lembre-se de que isso existe apenas para orientar a atividade do robô - não pode detê-los.)

Configure seu arquivo robots.txt para não permitir qualquer URL com uma string de consulta, ou seja, um '?' de ser indexado, consulte o artigo sobre robots.txt para o código. Isso evita problemas com URs duplicados por causa de URLs não SEF, mas também com cadeias de consulta reais, como estas:

`/contact.php`
`/contact.php?font-size=larger`

Consulte este artigo para obter detalhes sobre como definir corretamente o arquivo robot.txt: http://joomlaseo.com/checklist/robots-txt-for-search-engines

Para sites maiores, o uso de uma extensão SEF é mais eficiente, mas envolve aprender a usá-los. Se usado corretamente, todos os problemas de URL duplicados serão resolvidos. No entanto, se usado incorretamente, você pode acabar impedindo os bots de indexarem suas páginas.

Pesquise no JED na categoria Gerenciamento de Site a extensão SEF que é melhor para você. http://extensions.joomla.org/category/site-management

Por fim, como mencionado, o Google Search Console permite impedir que links específicos sejam indexados.

Esta é uma recomendação para o Google e geralmente não resolve o problema, e para sites maiores pode ser demorado cobrir todas as opções possíveis. Novamente, se o seu sitemap incluir vários links para a mesma página, você está trabalhando contra si mesmo.

3
garth

No Google Webmaster Console (Google Search Console), você pode fazer com que qualquer URL seja fechado para indexação pelo mecanismo de pesquisa do Google

0
stckvrw