Foros aprenderaprogramar.com
Aprender a programar => De todo un poco... => Mensaje iniciado por: Hernan en 24 de Enero 2019, 00:47
-
Cordial Saludo. Por favor me podrían ayudar indicándome como se llama este tipo de programas y cual me recomiendan para hacer lo siguiente ( vi que lo hacían en una empresa pero no supe como)
El sistema abre una URL predefinida y se autentica con datos predefinidos en el programa, posteriormente toma de un excel los ID de unos clientes y los consulta en la pagina, de cada consulta toma el resultado de un campo de la pagina y lo copia en el excel, y graba en un campo de la pagina un texto predefino. Esto lo hace de manera cíclica hasta terminar con todos los registros de excel.
Como resultado entrega la base con los datos del campo de cada cliente y en la pagina cada cliente queda con una anotación.
Me dijeron que esa practica se llama scrapping, pero lo que he encontrado de scrapping siempre me lleva a solo sacar datos de la pagina pero no ingresar datos y grabarlos.
De antemano agradezco la ayuda que me puedan prestar.
-
Buenas, lo que comentas no parece nada trivial. Sobre todo porque una cosa es recopilar información pública (que únicamente requiere acceder a una web), y otra cosa es acceder remotamente a un sistema y operar sobre él. Pienso que puede resolverse con un script php (también podría ser un script en otro lenguaje como java u otros) siempre que el sitio que visitas no te imponga ciertas barreras (como captchas duros o similar), pero para ello requieres conocimientos avanzados de PHP, java o lenguaje que utilices (así como del protocolo HTTP). En el curso de PHP (https://aprenderaprogramar.com/index.php?option=com_content&view=category&id=70&Itemid=193) se menciona algo [Extraer código fuente de página web con PHP. Leer archivos completos: file_get_contents y nl2br (CU00838B)] pero el contenido de este curso es básico y no abarca el poder realizar lo que comentas.
Salu2