Motor de búsqueda

software diseñado para buscar información en la World Wide Web

Un motor de búsqueda o buscador es un sistema informático que busca archivos almacenados en servidores web gracias a su araña web.[1]​ Un ejemplo son los buscadores de Internet (algunos buscan únicamente en la web, pero otros lo hacen además en noticias, servicios como Gopher, FTP, etc.) cuando se pide información sobre algún tema. Las búsquedas se hacen con palabras clave o con árboles jerárquicos por temas; el resultado de la búsqueda «Página de resultados del buscador» es un listado de direcciones web en los que se mencionan temas relacionados con las palabras clave buscadas.

Resultados de una búsqueda del término "eclipse lunar" en un motor de búsqueda de imágenes basado en la web

Como operan de forma automática, los motores de búsqueda contienen generalmente más información que los directorios web. Sin embargo, estos últimos también han de construirse a partir de búsquedas (no automatizadas) o bien a partir de avisos dados por los creadores de páginas.

Clasificación

editar

Se pueden clasificar en tres tipos:

  • Buscadores jerárquicos: interfaces de interrogación textual contra bases de datos de representaciones de páginas web, creadas según un modelo vectorial.
  • Directorios: directorios de enlaces a páginas (agrupando sus enlaces por categorías) que ofrecen motores de búsqueda interna.
  • Metabuscadores: interfaces de reenvío de búsqueda a múltiples buscadores.

Buscadores jerárquicos (araña o spider')

editar

Un rastreador web, indexador web, indizador web o araña web es un programa informático que inspecciona las páginas del World Wide Web de forma metódica y automatizada.[2]​ Uno de los usos más frecuentes que se les da consiste en crear una copia de todas las páginas web visitadas para su procesado posterior por un motor de búsqueda que indexa las páginas proporcionando un sistema de búsquedas rápido. Las arañas web suelen ser bots.[3]

Las arañas web comienzan visitando una lista de URL, identifica los hiperenlaces en dichas páginas y los añade a la lista de URL a visitar de manera recurrente de acuerdo a determinado conjunto de reglas. La operación normal es que se le da al programa un grupo de direcciones iniciales, la araña descarga estas direcciones, analiza las páginas y busca enlaces a páginas nuevas. Luego descarga estas páginas nuevas, analiza sus enlaces, y así sucesivamente.

Entre las tareas más comunes de las arañas de la web tenemos:

  • Crear el índice de una máquina de búsqueda.
  • Analizar los enlaces de un sitio para buscar links rotos.
  • Recolectar información de un cierto tipo, como precios de productos para recopilar un catálogo.

Directorios

editar
Un directorio web, también llamado directorio de enlaces o directorio abierto, es un tipo de sitio web que contiene un directorio organizado de datos, imágenes o, más generalmente, enlaces a otros sitios web. Los directorios web, contrariamente a los motores de búsqueda, se caracterizan por estar estructurados en categorías y subcategorías. Habitualmente, los directorios web permiten a los webmasters o creadores de sitios web que informen de su sitio para que sea incluido, y después los editores autorizados revisan esas solicitudes antes de incluir sus enlaces para comprobar que se adecúan a los requisitos de aceptación determinados por el directorio web.[4]

Una tecnología muy simple por gran cantidad de scripts disponibles, ya que no se requieren muchos recursos. En cambio, se requiere más soporte humano y mantenimiento.[5]

Metabuscadores

editar
 
Construcción de un metabuscador

Un metabuscador es un sistema que localiza información en los motores de búsqueda más usados, carece de base de datos propia, por lo que usa las de otros buscadores y muestra una combinación de las mejores páginas que ha devuelto cada uno,[6]​ de una sola vez y desde un solo punto.[7]

Un buscador normal recopila la información de las páginas mediante su indexación, como Google o bien mantiene un amplio directorio temático, como Yahoo!. La definición simplista sería que un metabuscador es un buscador en buscadores. Además, una vez realizada la búsqueda, los resultados pueden ser refinados hasta dar con la información más útil.[8]

«En otras palabras para aludir al concepto más genérico de un buscador, podemos afirmar que un metabuscador es el buscador que incorpora un conjunto de buscadores. Algunos ejemplos de metabuscadores son: Dogpile, Aleyares[9][10]MetaCrawler, entre otros. Estos metabuscadores presentan ventajas, como ampliar el espacio de búsqueda y en algunos casos mostrar la posición de la web».[11]

Buscadores verticales

editar
En informática, un buscador vertical es un buscador especializado en un sector o nicho concreto, lo que le permite analizar la información con mayor profundidad que un buscador genérico, disponer de resultados más actualizados y ofrecer al usuario herramientas de búsqueda avanzadas.[12]

Historia

editar

Antes de los 90

editar

En 1945, Vannevar Bush , quien escribió un artículo en The Atlantic Monthly titulado As We May Think[13]​ en el que imaginó bibliotecas de investigación con anotaciones conectadas no muy diferentes a los hiperenlaces modernos.[14]​ El análisis de enlaces finalmente se convertiría en un componente crucial de los motores de búsqueda a través de algoritmos como Hyper Search y PageRank.[15][16]

Años 90: Nacimiento de los motores de búsqueda

editar

Los primeros motores de búsqueda de Internet son anteriores al debut de la Web en diciembre de 1990: la búsqueda de usuarios de WHOIS se remonta a 1982,[17]​ y la búsqueda de usuarios de redes múltiples del Knowbot Information Service se implementó por primera vez en 1989.[18]​ La primera búsqueda bien documentada El motor que buscaba archivos de contenido, a saber, archivos FTP, era Archie, que debutó el 10 de septiembre de 1990.[19]

Antes de septiembre de 1993, la World Wide Web se indexaba completamente a mano. Había una lista de servidores web editada por Tim Berners-Lee y alojada en el servidor web del CERN. Queda una instantánea de la lista en 1992,[20]​ pero a medida que más y más servidores web se pusieron en línea, la lista central ya no pudo mantenerse al día. En el sitio de la NCSA, se anunciaron nuevos servidores bajo el título What's New!.[21]

La primera herramienta utilizada para buscar contenido (a diferencia de usuarios) en Internet fue Archie.[22]​ El nombre significa "archivo" sin la "v",[23]​ Fue creado por Alan Emtage[23][24][25][26]​ estudiante de informática en la Universidad McGill en Montreal, Quebec, Canadá . El programa descargó las listas de directorios de todos los archivos ubicados en sitios públicos anónimos de FTP (Protocolo de transferencia de archivos), creando una base de datos de búsqueda de nombres de archivos; sin embargo, Archie Search Engineno indexó el contenido de estos sitios ya que la cantidad de datos era tan limitada que se podía buscar fácilmente de forma manual.

El auge de Gopher (creado en 1991 por Mark McCahill en la Universidad de Minnesota) dio lugar a dos nuevos programas de búsqueda, Veronica y Jughead. Al igual que Archie, buscaron los nombres y títulos de los archivos almacenados en los sistemas de índice Gopher. Veronica (Very Easy Rodent - Oriented Net-wide Index to Computerized Archives) proporcionó una búsqueda de palabras clave de la mayoría de los títulos de menú de Gopher en todos los listados de Gopher. Jughead (Jonzy 's Universal Gopher Hierarchy Excavation And Display) era una herramienta para obtener información de menú de servidores Gopher específicos. Si bien el nombre del motor de búsqueda "Archie Search Engine" no era una referencia a la serie de cómics de Archie, Veronica y Jughead son personajes de la serie, haciendo así referencia a su predecesor.

En el verano de 1993 no existía ningún motor de búsqueda para la web, aunque se mantenían a mano numerosos catálogos especializados. Oscar Nierstrasz de la Universidad de Ginebra escribió una serie de secuencias de comandos de Perl que reflejaban periódicamente estas páginas y las reescribían en un formato estándar. Esto formó la base de W3Catalog , el primer motor de búsqueda primitivo de la web, lanzado el 2 de septiembre de 1993.[27]

En junio de 1993, Matthew Gray,[28]​ entonces en el MIT, produjo lo que probablemente fue el primer robot web, el World Wide Web Wanderer basado en Perl , y lo usó para generar un índice llamado Wandex. El propósito de Wanderer era medir el tamaño de la World Wide Web, lo que hizo hasta fines de 1995. El segundo motor de búsqueda de la web, Aliweb, apareció en noviembre de 1993. Aliweb no usaba un robot web sino que dependía de ser notificado por administradores del sitio web de la existencia en cada sitio de un archivo índice en un formato particular.

JumpStation (creada en diciembre de 1993[29]​ por Jonathon Fletcher) usó un robot web para encontrar páginas web y construir su índice, y usó un formulario web como interfaz para su programa de consulta. Por lo tanto, fue la primera herramienta de descubrimiento de recursos WWW que combinó las tres características esenciales de un motor de búsqueda web (rastreo, indexación y búsqueda) como se describe a continuación. Debido a los recursos limitados disponibles en la plataforma en la que se ejecutaba, su indexación y, por lo tanto, las búsquedas se limitaban a los títulos y encabezados que se encontraban en las páginas web que encontraba el rastreador.

El primer buscador fue Wandex, un índice realizado por el World Wide Web Wanderer, un robot desarrollado por Mattew Gray en el MIT, en 1993. Otro de los primeros buscadores, Aliweb, también apareció en 1993 y todavía está en funcionamiento. El primer motor de búsqueda de texto completo fue WebCrawler, que apareció en 1994. A diferencia de sus predecesores, este permitía a sus usuarios una búsqueda por palabras en cualquier página web, lo que llegó a ser un estándar para la gran mayoría de los buscadores. WebCrawler fue asimismo el primero en darse a conocer ampliamente entre el público. También apareció en 1994 Lycos (que comenzó en la Carnegie Mellon University).

Muy pronto aparecieron muchos más buscadores, como Excite, Infoseek, Inktomi, Northern Light y Altavista. De algún modo, competían con directorios (o índices temáticos) populares tales como Yahoo!. Más tarde, los directorios se integraron o se añadieron a la tecnología de los buscadores para aumentar su funcionalidad.

Antes del advenimiento de la Web, había motores de búsqueda para otros protocolos o usos, como el buscador Archie, para sitios FTP anónimos y el motor de búsqueda Verónica, para el protocolo Gopher.

En 1996 Larry Page y Sergey Brin comenzaron un proyecto que llevaría a la aparición del buscador más utilizado hoy en día: Google. El proyecto inicial se llamó BackRub,[30]​ que era el nombre de la tecnología utilizada para su desarrollo.

BackRub basaba la importancia de los sitios web en la cantidad de enlaces que recibía. Presentaba una interfaz muy sencilla y capaz de mostrar al usuario los resultados más relevantes para cada una de los búsquedas.

Con la llegada de Google, el modo en que los motores de búsqueda funcionaban cambió de forma radical, democratizando los resultados que se ofrecen en su buscador. Google basó el funcionamiento de su motor de búsqueda en la relevancia de los contenidos de cada sitio web para los propios usuarios, es decir, priorizando aquellos resultados que los usuarios consideraban más relevantes para una temática concreta. Para ello patentó su famoso PageRank, un conjunto de algoritmos que valoraban la relevancia de un sitio web asignándole un valor numérico del 0 al 10.

En la mayoría de países Google.com o la versión de Google para el país concreto, es el buscador más utilizado, sin embargo, esto no ocurre en algunos países. Por ejemplo, en Rusia el buscador más utilizado es Yandex.ru[31][32]​ y en China es Baidu.[33]

Conforme ha ido pasando el tiempo, miles de buscadores han ido naciendo y muriendo, entre los que podemos mencionar:

Ver más información sobre esto en el Anexo:Motores de búsqueda

Desde los años 2000 a la actualidad: Después de la burbuja de las puntocom

editar

Alrededor de 2000, el motor de búsqueda de Google saltó a la fama.[34]​ La empresa logró mejores resultados para muchas búsquedas con un algoritmo llamado PageRank, como se explicó en el artículo Anatomía de un motor de búsqueda escrito por Sergey Brin y Larry Page , los fundadores posteriores de Google.[16]​ Este algoritmo iterativo clasifica las páginas web según el número y el PageRank de otros sitios web y páginas que enlazan allí, con la premisa de que las páginas buenas o deseables están enlazadas a más que otras. La patente de Larry Page para PageRank cita la patente anterior de RankDex de Robin Li como una influencia.[35]​ Google también mantuvo una interfaz minimalista para su motor de búsqueda. En cambio, muchos de sus competidores incrustaron un motor de búsqueda en un portal web. De hecho, el motor de búsqueda de Google se hizo tan popular que surgieron motores falsos como Mystery Seeker.

Para el año 2000, Yahoo! proporcionaba servicios de búsqueda basados en el motor de búsqueda de Inktomi. Yahoo! adquirió Inktomi en 2002 y Overture (propietaria de AlltheWeb y AltaVista) en 2003. Yahoo! cambió al motor de búsqueda de Google hasta 2004, cuando lanzó su propio motor de búsqueda basado en las tecnologías combinadas de sus adquisiciones.

Microsoft lanzó por primera vez MSN Search en el otoño de 1998 utilizando los resultados de búsqueda de Inktomi. A principios de 1999, el sitio comenzó a mostrar listados de Looksmart, combinados con los resultados de Inktomi. Durante un breve período de tiempo en 1999, MSN Search utilizó en su lugar los resultados de AltaVista. En 2004, Microsoft inició una transición hacia su propia tecnología de búsqueda, impulsada por su propio rastreador web (llamado msnbot).

El motor de búsqueda renombrado de Microsoft, Bing, se lanzó el 1 de junio de 2009. El 29 de julio de 2009, Yahoo! y Microsoft cerraron un trato en el que Yahoo! la búsqueda estaría impulsada por la tecnología Microsoft Bing.

A partir de 2019, los rastreadores de motores de búsqueda activos incluyen los de Google, Petal, Sogou, Baidu, Bing, Gigablast, Mojeek, DuckDuckGo y Yandex.

Sesgo de los motores de búsqueda

editar

Aunque los motores de búsqueda están programados para clasificar sitios web en función de una combinación de su popularidad y relevancia, los estudios empíricos indican varios sesgos políticos, económicos y sociales en la información que proporcionan[36][37]​ y las suposiciones subyacentes sobre la tecnología.[38]​ Estos sesgos pueden ser el resultado directo de procesos económicos y comerciales (p. ej., las empresas que anuncian con un motor de búsqueda también pueden volverse más populares en sus resultados de búsqueda orgánicos) y procesos políticos (p. ej., la eliminación de resultados de búsqueda para cumplir con las leyes locales).[39]​ Por ejemplo, Google no mostrará ciertos sitios web neonazis en Francia y Alemania, donde la negación del Holocausto es ilegal.

Los sesgos también pueden ser el resultado de procesos sociales, ya que los algoritmos de los motores de búsqueda suelen estar diseñados para excluir puntos de vista no normativos en favor de resultados más populares.[40]​ Los algoritmos de indexación de los principales motores de búsqueda se inclinan hacia la cobertura de sitios basados en los EE. UU., en lugar de sitios web de países fuera de los EE. UU.[37]

Google Bombing es un ejemplo de un intento de manipular los resultados de búsqueda por motivos políticos, sociales o comerciales.

Varios académicos han estudiado los cambios culturales desencadenados por los motores de búsqueda,[41]​ y la representación de ciertos temas controvertidos en sus resultados, como el terrorismo en Irlanda,[42]​ la negación del cambio climático,[43]​ y las teorías de la conspiración.[44]

Resultados personalizados y burbujas de filtro

editar

Muchos motores de búsqueda como Google y Bing brindan resultados personalizados basados en el historial de actividad del usuario. Esto conduce a un efecto que se ha denominado filtro burbuja. El término describe un fenómeno en el que los sitios web usan algoritmos para adivinar selectivamente qué información le gustaría ver a un usuario, en función de la información sobre el usuario (como la ubicación, el comportamiento de clics anterior y el historial de búsqueda). Como resultado, los sitios web tienden a mostrar solo información que concuerda con el punto de vista anterior del usuario. Esto pone al usuario en un estado de aislamiento intelectual sin información contraria. Los principales ejemplos son los resultados de búsqueda personalizados de Google y el flujo de noticias personalizado de Facebook.

Según Eli Pariser, quien acuñó el término, los usuarios están menos expuestos a puntos de vista conflictivos y están aislados intelectualmente en su propia burbuja informativa. Pariser relató un ejemplo en el que un usuario buscó en Google "BP" y obtuvo noticias de inversión sobre British Petroleum , mientras que otro buscador obtuvo información sobre el derrame de petróleo de Deepwater Horizon y que las dos páginas de resultados de búsqueda eran "sorprendentemente diferentes".[45][46][47]​ El efecto burbuja puede tener implicaciones negativas para el discurso cívico, según Pariser.[48]​ Desde que se identificó este problema, han surgido motores de búsqueda de la competencia que buscan evitar este problema al no rastrear o "burbujear" a los usuarios, como DuckDuckGo. Otros académicos no comparten el punto de vista de Pariser y consideran que la evidencia en apoyo de su tesis no es convincente.[49]

Envío al motor de búsqueda

editar

El envío de un motor de búsqueda web es un proceso en el que un webmaster envía un sitio web directamente a un motor de búsqueda. Si bien el envío a los motores de búsqueda a veces se presenta como una forma de promocionar un sitio web, generalmente no es necesario porque los principales motores de búsqueda utilizan rastreadores web que finalmente encontrarán la mayoría de los sitios web en Internet sin ayuda. Pueden enviar una página web a la vez o pueden enviar todo el sitio usando un mapa del sitio , pero normalmente solo es necesario enviar la página de inicio.de un sitio web ya que los motores de búsqueda pueden rastrear un sitio web bien diseñado. Quedan dos razones para enviar un sitio web o una página web a un motor de búsqueda: agregar un sitio web completamente nuevo sin esperar a que un motor de búsqueda lo descubra y actualizar el registro de un sitio web después de un rediseño sustancial.

Algunos programas de envío de motores de búsqueda no solo envían sitios web a múltiples motores de búsqueda, sino que también agregan enlaces a sitios web desde sus propias páginas. Esto podría parecer útil para aumentar la clasificación de un sitio web[50]​, ya que los enlaces externos son uno de los factores más importantes que determinan la clasificación de un sitio web. Sin embargo, John Mueller de Google ha declarado que esto "puede dar lugar a una gran cantidad de enlaces no naturales para su sitio" con un impacto negativo en la clasificación del sitio.[51]

Véase también

editar

Referencias

editar
  1. Tramullas, Jesús; Olvera-Lobo, Mª Dolores (2001). Recuperación de la información en Internet. Madrid: Ra-Ma. ISBN 9788478974580. 
  2. Kobayashi, Mei; Takeda, Koichi (1 de junio de 2000). «Information Retrieval on the Web». ACM Comput. Surv. 32 (2): 144-173. ISSN 0360-0300. doi:10.1145/358923.358934. Consultado el 8 de agosto de 2016. 
  3. «See definition of scutter on FOAF Project's wiki». Archivado desde el original el 13 de diciembre de 2009. Consultado el 7 de agosto de 2016. 
  4. «Directorio Web». 
  5. Tramullas, Jesús; Navarro Bonilla, Diego (2005). «Directorios temáticos especializados: definición, características y perspectivas de desarrollo». Revista Española de Documentación Científica 28 (1): 49-61. 
  6. Berger, Sandy (2005). «Sandy Berger's Great Age Guide to the Internet». Que Publishing. ISBN 0-7897-3442-7
  7. «Architecture of a Metasearch Engine that Supports User Information Needs». 1999. 
  8. «Comunidad Baratz. Metabuscadores.». 
  9. López Curiel, Raúl (2014). ADP: Asociación para el desarrollo del profesorado, ed. Las TIC en el aula de Tecnología. Guía para su aplicación a la metodología.. España: LULU. p. 72. ISBN 9781291609295. Consultado el 24 de enero de 2016. 
  10. Perrone, Graciela (2012). «2». En conectar igualdad, ed. El bibliotecario escolar en el modelo 1 a 1. Serie para la enseñanza en el modelo 1 a 1. Argentina: Educar S.E. p. 36. ISBN 9789871433995. Archivado desde el original el 6 de febrero de 2016. Consultado el 24 de enero de 2016. 
  11. Vargas Osorno, Teresa Genoveva (2015). «Bancos de datos jurídicos. Pasado, presente y futuro.». TESIS DOCTORAL (UNIVERSIDAD COMPLUTENSE DE MADRID): 158. Archivado desde el original el 1 de febrero de 2016. Consultado el 25 de enero de 2016. 
  12. «Los buscadores verticales o especializados para ampliar las búsquedas». Elidiomadelaweb.com. 7 de abril de 2021. Consultado el 11 de enero de 2022. 
  13. «Search Engine History.com». www.searchenginehistory.com. Consultado el 2 de julio de 2020. 
  14. «Penn State WebAccess Secure Login». webaccess.psu.edu. Archivado desde el original el 22 de enero de 2022. Consultado el 2 de julio de 2020. 
  15. Marchiori, Massimo (1997). «The Quest for Correct Information on the Web: Hyper Search Engines». Proceedings of the Sixth International World Wide Web Conference (WWW6). Consultado el 10 de enero de 2021. 
  16. a b Brin, Sergey; Page, Larry (1998). «The Anatomy of a Large-Scale Hypertextual Web Search Engine». Proceedings of the Seventh International World Wide Web Conference (WWW7). Archivado desde el original el 13 de julio de 2017. Consultado el 10 de enero de 2021. 
  17. «RFC 812 - NICNAME/WHOIS». ietf.org. 
  18. «Knowbot programming: System support for mobile agents». cnri.reston.va.us. 
  19. Deutsch, Peter (11 de septiembre de 1990). «[next] An Internet archive server server (was about Lisp)». groups.google.com. Consultado el 29 de diciembre de 2017. 
  20. «World-Wide Web Servers». W3.org. Consultado el 14 de mayo de 2012. 
  21. «What's New! February 1994». Home.mcom.com. Consultado el 14 de mayo de 2012. 
  22. "Internet History - Search Engines" (from Search Engine Watch), Universiteit Leiden, Netherlands, September 2001, web: LeidenU-Archie Archivado el 13 de abril de 2009 en Wayback Machine..
  23. a b pcmag. «Archie». pcmag.com. Consultado el 20 de septiembre de 2020. 
  24. Alexandra Samuel. «Meet Alan Emtage, the Black Technologist Who Invented ARCHIE, the First Internet Search Engine». ITHAKA. Consultado el 20 de septiembre de 2020. 
  25. loop news barbados. «Alan Emtage- a Barbadian you should know». loopnewsbarbados.com. Archivado desde el original el 23 de septiembre de 2020. Consultado el 21 de septiembre de 2020. 
  26. Dino Grandoni, Alan Emtage. «Alan Emtage: The Man Who Invented The World's First Search Engine (But Didn't Patent It)». huffingtonpost.co.uk. Consultado el 21 de septiembre de 2020. 
  27. Oscar Nierstrasz (2 de septiembre de 1993). «Searchable Catalog of WWW Resources (experimental)». 
  28. Gray, Matthew. «Página oficial de Matthew Gray» (en inglés). 
  29. «Archive of NCSA what's new in December 1993 page». 20 de junio de 2001. Archivado desde el original el 20 de junio de 2001. Consultado el 14 de mayo de 2012. 
  30. Social 4U. «Historia de los motores de búsqueda. Los inicios de Google». Consultado el 10 de noviembre de 2016. 
  31. Los principales motores de búsqueda en Rusia: Yandex, Google.ru, Mail.ru y Rambler. Irena Domingo. rusalia.com. 13 noviembre, 2013
  32. Cómo es Yandex, el poderoso buscador que le gana la partida a Google en Rusia. Anastasia Zyrianova. bbc.com News. 2 de noviembre de 2018
  33. «¿Cómo se busca sin Google en el internet chino?». Consultado el 25 de octubre de 2020. 
  34. «Our History in depth». W3.org. Consultado el 31 de octubre de 2012. 
  35. Error en la cita: Etiqueta <ref> no válida; no se ha definido el contenido de las referencias llamadas patent
  36. Segev, El (2010). Google and the Digital Divide: The Biases of Online Knowledge, Oxford: Chandos Publishing.
  37. a b Vaughan, Liwen; Mike Thelwall (2004). «Search engine coverage bias: evidence and possible causes». Information Processing & Management 40 (4): 693-707. ISSN 0306-4573. doi:10.1016/S0306-4573(03)00063-3. 
  38. Jansen, B. J. and Rieh, S. (2010) The Seventeen Theoretical Constructs of Information Searching and Information Retrieval. Journal of the American Society for Information Sciences and Technology. 61(8), 1517-1534.
  39. Berkman Center for Internet & Society (2002), "Replacement of Google with Alternative Search Systems in China: Documentation and Screen Shots", Harvard Law School.
  40. Introna, Lucas; Helen Nissenbaum (2000). «Shaping the Web: Why the Politics of Search Engines Matters». The Information Society 16 (3): 169-185. S2CID 2111039. doi:10.1080/01972240050133634. 
  41. Hillis, Ken; Petit, Michael; Jarrett, Kylie (12 de octubre de 2012). Google and the Culture of Search. Routledge. ISBN 9781136933066. (requiere registro). 
  42. Reilly, P. (1 de enero de 2008). Spink, Prof Dr Amanda; Zimmer, Michael, eds. 'Googling' Terrorists: Are Northern Irish Terrorists Visible on Internet Search Engines?. Information Science and Knowledge Management 14. Springer Berlin Heidelberg. pp. 151-175. Bibcode:2008wsis.book..151R. ISBN 978-3-540-75828-0. S2CID 84831583. doi:10.1007/978-3-540-75829-7_10. 
  43. Hiroko Tabuchi, "How Climate Change Deniers Rise to the Top in Google Searches", The New York Times, Dec. 29, 2017. Retrieved November 14, 2018.
  44. Ballatore, A (2015). «Google chemtrails: A methodology to analyze topic representation in search engines». First Monday 20 (7). doi:10.5210/fm.v20i7.5597. 
  45. Parramore, Lynn (10 de octubre de 2010). «The Filter Bubble». The Atlantic. Consultado el 20 de abril de 2011. «Since Dec. 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google "BP," one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill....» 
  46. Weisberg, Jacob (10 de junio de 2011). «Bubble Trouble: Is Web personalization turning us into solipsistic twits?». Slate. Consultado el 15 de agosto de 2011. 
  47. Gross, Doug (19 de mayo de 2011). «What the Internet is hiding from you». CNN. Consultado el 15 de agosto de 2011. «I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all.» 
  48. Zhang, Yuan Cao; Séaghdha, Diarmuid Ó; Quercia, Daniele; Jambor, Tamas (February 2012). «Auralist: Introducing Serendipity into Music Recommendation». ACM WSDM. S2CID 2956587. doi:10.1145/2124295.2124300. 
  49. O'Hara, K. (1 de julio de 2014). «In Worship of an Echo». IEEE Internet Computing 18 (4): 79-83. ISSN 1089-7801. S2CID 37860225. doi:10.1109/MIC.2014.71. 
  50. «Que es un link o enlace». https://doctor-seo.net/. 
  51. Schwartz, Barry (29 de octubre de 2012). «Google: Search Engine Submission Services Can Be Harmful». Search Engine Roundtable. Consultado el 4 de abril de 2016. 

Enlaces externos

editar