Ich war nicht da. Ich war noch nie da. Beim 30c3 oder einer seiner Vorgänger-Veranstaltungen. Aber ich hatte eine Idee, wie man Scraperwiki ausprobieren könnte. Also habe ich mir einen Account angelegt, einen kostenlosen Account, mit dem man drei Datensets bearbeiten kann.
Mit dem Tutorial für das Auslesen von Tweets bin ich auch ganz gut zurecht gekommen: Anleitung hier.
Was wollte ich damit herausfinden? (Ich glaube, echter Datenjournalismus beginnt immer mit einer klaren Frage.) Was muss ich über #30c3 lesen, damit ich meinen Onlineverzicht über die Feiertage aufholen kann. 2500 Tweets habe ich damit in eine Exceltabelle exportieren können. Die habe ich mit Excel sortiert und nach ihrer Häufigkeit sortiert. Damit kann ich mich jetzt in den nächsten Tagen über die am häufigsten zitierten URLs hermachen, ganz dann, wenn es mir passt. Hier die Top 10:
URL // Anzahl
- http://media.ccc.de/browse/congress/2013/ // 68
- http://cdn.media.ccc.de // 33
- http://freejeremy.net/giant-banner/jeremy-hammond-recognized-and-remembered-at-30c3/ // 30
- https://vimeo.com/82903406 // 29
- https://mailman.stanford.edu/pipermail/liberationtech/2014-January/012498.html // 28
- http://www.welt.de/debatte/kommentare/article123371268/Wir-werden-von-Offline-Politikern-regiert.html // 27
- https://www.youtube.com/playlist?list=PLOcrXzpA0W82rsJJKrmeBlY3_MS0uQv3h // 25
- https://netzpolitik.org/2014/30c3-der-kampf-um-netzneutralitaet-wer-kontrolliert-das-netz/ // 24
- https://www.youtube.com/watch?v=xLT7ao1V8vY // 22
- http://www.ffdn.org/fr/article/2014-01-03/federer-les-fai-participatifs-du-monde-entier // 21