Es posible, por supuesto, siempre y cuando el sitio web de origen le permita obtener todos los datos a esa profundidad. Hay muchas maneras de hacerlo, probablemente para su caso, parece que solo hay que raspar una vez, lo que probablemente tendrá que recuperar algunos cientos de miles de artículos, la mejor manera será construir un raspador de alguna manera antigua usando cualquier lenguaje de programación ya sabes. Probablemente no esté listo para gastar dinero en este trabajo como investigación sin fines de lucro, por lo que sería problemático utilizar cualquier servicio de raspado para ello. Por ejemplo, permitimos hasta 5K solicitudes de página por mes en una cuenta gratuita cuando ejecuta scraper en nuestra nube.
Pero si está listo para ejecutar scraper en su propia computadora o servidor, puede usar nuestro servicio Diggernaut: convierta el contenido del sitio web en conjuntos de datos para construir su scraper, luego puede compilarlo para Windows, Macos o Linux, y luego ejecutarlo en su propio servidor o computadora. Como no utiliza ninguno de nuestros recursos en la nube, puede hacer tantas solicitudes como desee sin pagar un centavo.
- ¿Cuáles son algunos métodos para administrar el contenido en el backend de un sitio web de noticias?
- ¿Cuál es el futuro del periodismo en línea? ¿Y habrá más movimiento hacia el "muro de pago"?
- ¿Cuáles son algunas de las mejores opciones en línea para leer noticias mundiales?
- ¿Cuáles son las mejores aplicaciones de noticias o sitios web?
- Con tantas fuentes de noticias y eventos mundiales en todo el mundo, ¿qué deberían leer los estudiantes internacionales?