Man kennt das ja: man möchte am nächsten Tag 20 caches finden, die Ausdruckerei und Eingeberei in Glopus nervt und dauert ewig.
Hab mir also mal ein Skript in Python geschrieben dass für eine Liste von cache ids die Beschreibung usw, sowie die letzten 5 logs holt. Die Ausgabe ist bewusst spartanisch um um Platz zu sparen und ist in der gleichen Reihenfolge wie man es von der Webseite her kennt.
Die Koordinaten der caches werden in 'waypoints_base.txt' geschrieben und wenn vorhanden die waypoints (von multi caches) im Ordner 'waypoints_multi' gespeichert um die GoTo Seite von Glopus übersichtlich zu halten. Wenn man die waypoints benötigt, einfach die waypoint Datei ändern.
Das script verwende die Cookies von Firefox, also muss man sich mit jenem auf der geocaching.com Seite einloggen ('remember me') und im script den Pfad zu den Cookies setzen; etwa C:\Dokumente und Einstellungen\c\Anwendungsdaten\Mozilla\Firefox\Profiles\bla.default\cookies.txt
Für Ubuntu/Debian user:
sudo apt-get install python-clientcookie
echo "GCXXXXX GCYYYYY" | python groundspeak.py > out
oder
python groundspeak.py GCXXXXX GCYYYYY > out
Für Windows user komplizierter:
python installieren
http://www.python.org/download/
ClientCookie modul installieren
http://wwwsearch.sourceforge.n…/src/mechanize-0.1.7b.zip
entpacken
in Windows shell/prompt:
verwenden
Falls bedarf besteht wäre es recht einfach das script zu erweitern um alle caches in der Umgebung gegebener Koordinaten zu laden. Mal sehen ob das jemand nützlich findet