Zum Inhalt der Seite gehen


Mit welchen Tools könnte ich denn #JSON Dateien mit ~700MB Größe handhabbar machen?

Die Größe ist das Problem, da werden alle Parser, die erst mal ein Modell im Speicher bauen, quasi unbrauchbar.

Sprich: zum Beispiel alle Objekte mit einem definierten Pfad-Muster (vgl XPATH) in einen JSON-Output (Array) filtern?

Nächste Frage: Gibt es irgendwo eine Spec des #Friendica Backup-Formats? 😏

Update: github.com/ICRAR/ijson sieht gut aus… Nachher mal testen.

teilten dies erneut

Als Antwort auf Jaddy

hmm, ich habe noch nie mit so großen Dateien zu tun gehabt, aber in meinen bash-scripten hat jq immer gute Dienste geleistet...
Als Antwort auf Jaddy

Kommt drauf an, was genau du damit anstellen willst, aber 700MB klingt für mich jetzt erstmal nicht schrecklich groß.
Es gibt aber durchaus einige json-streaming Parser¹ libs für diverse Sprachen.

__
¹„JSON streaming“ in der Suchmaschine des geringsten Mißtrauens liefert viele Libs und sogar einen Wikipedia-Artikel.

Als Antwort auf Klaus Stein

@Klaus Stein Der Tipp mit jq war prima. Mac port kennt das auch. Wenn ich die nicht so wirklich konzise Doku gebändigt habe, kriege ich vermutlich auch die richtigen Zaubersprüche formuliert um aus meinem #Friendica Backup die Contacts und Posts und so raus zu ziehen.

Ich habe allerdings auch gemerkt, dass meine Posts nicht im Backup sind. Da werde ich wohl github.com/kensanata/mastodon-… oder etwas vergleichbares nehmen müssen.

Bei meinem gehosteten Friendica komme ich leider nicht an die Datenbank.

Als Antwort auf Jaddy

Jep, jq ist ein schönes Tool, wenn ich sowas wirklich in der Shell machen will (und es gibt grad Menschen, die Standard-Unix-Tools nachbauen mit strukturierten Formaten (z.B. json) als Aus- und Eingabe, d.h. du schiebst die Ausgabe in die Pipe und das nächste Tool kann es strukturiert lesen und weiterverarbeiten (quasi das, was die Powershell auf .NET Objekten auch versucht).
Unbekannter Ursprungsbeitrag

friendica (DFRN) - Link zum Originalbeitrag
Jaddy