Daten aus Website extrahieren

- OCinside.de PC Forum
https://www.ocinside.de

-- Software
https://www.forum-inside.de/forums.cgi?forum=17

--- Daten aus Website extrahieren
https://www.forum-inside.de/topic.cgi?forum=17&topic=6294

Ein Ausdruck des Beitrags mit 4 Antworten ergibt bei 3 Antworten pro Seite ca. 2 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 9.98 Gramm Papier.


-- Veröffentlicht durch dergeert am 15:37 am 9. Aug. 2005

nein, ich nutze windows :ugly:

werde mir den office explorer mal näher ansehen...

wichtig ist mir auch eine leistungsfähige parsingfunktion um die daten, die ich brauche aus dem wust an text rauszuziehen... naja, im notfall muß ich wohl meinen c++-compiler mal wieder rauskramen

also es geht mir nicht drum, die daten ich echtzeit in andere sites einzubinden --> keine php-skripte
ich will die dann quasi offline analysieren :)


-- Veröffentlicht durch Laude am 6:00 am 9. Aug. 2005

office explorer

schau dir das mal an


-- Veröffentlicht durch b0ol am 1:55 am 9. Aug. 2005

benutzt du linux? benutz wget oder lynx dump =)


-- Veröffentlicht durch dergeert am 0:27 am 9. Aug. 2005

ich suche ein prog, mit dem ich bestimmte teile von websites auslesen und archivieren kann, z.b. artikelname und preis eines kompletten onlineshops.

der soll sich dann quasi durch alle artikel durchklicken und artikelname und preis mir in einem textfile ausspucken :)


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de