Use este identificador para citar ou linkar para este item: http://riu.ufam.edu.br/handle/prefix/2527
Tipo de documento: Relatório de Pesquisa
Título: Análise dos métodos tradicionais de ranking para busca na web
metadata.dc.creator: Kleber Veiga Castro
metadata.dc.contributor.advisor1: Lady Daiana de Oliveira Pinto
Resumo: O Brasil possui mais de 4 milhões de páginas registradas no domínio .br (MERLO, 2011), sendo que a tendência é crescer ainda mais, pois estima-se que a quantidade de sites deve duplicar (NIE et. al., 2006). Pode se constatar que devido o volume, a heterogeneidade da internet e com o aumento dos usuários e das páginas online a tendência é ter uma dificuldade maior para se recuperar as informações, tornando a tarefa de encontrar documentos relevantes entre os disponíveis, cada vez mais difíceis. Devido essa quantidade informação contida na web, existem algoritmos que são utilizados para a recuperação da informação, ou seja, quando o usuário requisita uma informação em algum sistema de busca, como Google e Yahoo, a informação é selecionada através de um algoritmo, essa busca deve ser dada em tempo aceitável e com boa qualidade da informação. Os algoritmos utilizados por esses sistemas de busca classificam as páginas Web, verificando o conteúdo das páginas e criando um ranking com o resultado da pesquisa, tendo os sites mais relevantes nos primeiros lugares, esses algoritmos são denominados de algoritmos de análise de links (SILVA et. al, 2011). Existem alguns métodos tradicionais de análise de links, sendo o algoritmo de PageRank e o HITS, dois dos métodos mais conhecidos. O algoritmo de PageRank foi descrito por Lawrence Page e Sergey Brin (BRIN & PAGE, 1981), visa classificar as páginas Web em um nível de importância, verificando a estrutura de links para se obter o nível de qualidade, ou seja, um valor de relevância para cada página Web. Esse algoritmo é usado pelo motor de busca Google para auxiliar na determinação de relevância. Apesar da eficiência dos algoritmos citados, estudos recentes (COELHO, 2002) (SILVA et. al, 2011) (BERT et. al) têm mostrado que a performance dos algoritmos está longe da ideal, apesar das evoluções tecnológicas e das novas versões de algoritmos de análise de links, a maioria dos sistemas de buscas ainda enfrenta vários problemas no momento de classificar as páginas de acordo com a necessidade do usuário, em outras palavras, retornar para o usuário a informação que ele necessita. Isso se dá devido alguns problemas que vai desde a simples forma do usuário fazer a consulta, até páginas Web construídas com o intuito de manipular as funções de ranking dos algoritmos. Nesse contexto, a necessidade de localizar e selecionar a informação são evidentes. Por isso, observou-se a necessidade do estudo das limitações e os problemas relacionados à recuperação de informação na Internet e o processo de análise de links utilizados em máquinas de buscas em ambiente Web.
Resumo em outro idioma: 
Palavras-chave: Recuperação da Informação, Análise de links, Web
Área de conhecimento - CNPQ: Ciências Exatas e da Terra: Ciencia da Computacao
Idioma: pt_BR
metadata.dc.publisher.country: Brasil
Editor: Universidade Federal do Amazonas
metadata.dc.publisher.initials: UFAM
metadata.dc.publisher.department: INSTITUTO
metadata.dc.publisher.program: PROGRAMA PIBIC 2011
Tipo de acesso: Acesso Restrito
URI: http://riu.ufam.edu.br/handle/prefix/2527
Data do documento: 31-jul-2012
Aparece nas coleções:Relatórios finais de Iniciação Científica

Arquivos associados a este item:
Não existem arquivos associados a este item.


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.