Schlagwort-Archive: Visualisierung

Europe Body Count

Editorial notice: The following text is written by Nicolas Kayser-Bril, a french journalist and a pioneer in advanced data journalism. Some of his projects are highly relevant for the digital history community and we are very glad to have Nicolas presenting his new project here at hist.net! You can contact Nicolas at nkb@jplusplus.org. (ph)

A few weeks back, I read that the number of people killed by Nazi Germany before 1939 was, at most, in the low 5 figures. I was struck by the number, as I thought that the intensity of horror of the Nazi regime increased more regularly between 1933 and 1942, when it reach its apex. As a journalist, I wanted to tell this story in a powerful way and decided to visualize the number of victims of Nazi Germany month by month on a line chart.

After Google failed to give me a lead, I asked Peter Haber for advice, who referred me to his colleagues. It turned out that there is no month by month data of victims of Nazi Germany available. Simon Erlanger even pointed out that not all victims are known. New details just emerged about 1,100 Jewish ghettos.

With that in mind, I set out to design a prototype for a data store that could handle data on a variety of scales, from macro to individual data, allowing for the concurrent use of data of different precision and reliability. To give an example, we know that about 1,1 million people were murdered at Auschwitz over the course of 55 months between 1940 and 1945: 20,000 monthly deaths. The accuracy of this figure is obviously low. If one were to add a sub-event to it, such as the 8,000 French Jews deported there in July 1942, the monthly number of victims would be 27,800 for July 1942 and 19,800 for all other months. This iterative process can be repeated until sub-events reach the scale of individual victims.

Working on different scales at the same time, we can store data about individuals as well as rough estimates for larger events. Using a graph database, we can describe victims on an ad hoc basis (e.g. we might have the age of some victims, but not all), using what is available. The very early prototype is called Europe Body Count (inspired by the Iraq Body Count project, considered to be the most reliable source of information about civilian deaths in Iraq). It is highly unstable and incomplete, but it makes the concept clear.

It is important to tell non-historians that Nazi Germany did not become gradually murderous but that massacres changed in magnitude in mid-1941. It is important because it explains why democracies did not get tougher on Hitler earlier on. It is important because, as survivors die (1942’s 20-year-olds just turned 90), we need facts more than ever.

National and ethnic narratives have failed at explaining what happened. If you only know that 6 million Jews were slaughtered in camps, you probably think (as a solid share of the European population does) that they were quite naive and afraid to fight back. Add the context of a more widespread bloodbath in the region and it becomes more understandable. If you only take the 500,000 Germans who died between 1944 and 1946 as they were expelled from eastern regions of Germany, it looks outrageous. Add the context of years of massacres and slave labor and the German plight appears as within the bounds of normality in those years in the region.

A comprehensive database, an excellent API and good-looking visualizations won’t transform Europeans in critical historians. But it will give tools to those journalists and story tellers who want to fight back revisionist narratives. As survivors die, we’ll need that more than ever.

Die Geschichte der Welt in 100 Sekunden

A History of the World in 100 Seconds from Gareth Lloyd on Vimeo.

Wikipedia eignet sich aufgrund seiner Datenstruktur hervorragend für allerlei Experimente im Sinne der hier bereits mehrfach thematisierten Data Driven History. Eine beinahe maximal mögliche Datenaggregation haben die beiden BBC-Mitarbeiter Gareth Lloyd und Tom Martin im Rahmen des History Hack Day anfangs Jahr in London programmiert.
Weiterlesen

Data Driven History

«Digital» bedeutet zunächst einmal, «auf Ziffern beruhend», «durch Ziffern ausgedrückt». Hauptmerkmal einer digitale Geschichtsschreibung wäre demnach ihre Zahlenbasiertheit. Tatsächlich deutet vieles daraufhin, dass mit dem «digital turn» der letzten Jahre Zahlen und Daten eine neue Bedeutung in der Geschichtswissenschaft erhalten könnten.

Anders aber als bei der quantitiv orientierten Geschichtswissenschaft, die sich seit den sechziger Jahren des letzten Jahrhunderts als eine «Historische Sozialwissenschaft» zu formieren begann, orientiert sich eine neue, eben erst entstehende «data driven history» an kulturwissenschaftlichen Methoden und Fragestellungen.

Anthony Grafton hat es so formuliert: «The digital humanities do fantastic things. I’m a believer in quantification. But I don’t believe quantification can do everything. So much of humanistic scholarship is about interpretation.»
Weiterlesen

Eine Lokalposse als Timeline

In Basel, wo sich bekanntlich der Konzernsitz von hist.net befindet, spielen sich zur Zeit hochdramatische lokalpolitische Medienereignisse ab. Die einzige (und ziemich marode) Lokalzeitung der Stadt wurde vor einigen Monaten von rechtsbürgerlichen Investoren übernommen, eine von links nach rechts konvertierte Edelfeder als Chefredaktor installiert und der abgewählte Bundesrat Christoph Blocher als Berater verpflichtet. Nun aber regte sich Widerstand in der Stadt, die Investoren stiessen daraufhin das verschuldete Lokalblatt an einen gut vernetzten Selfmade-Manager ab und die Restbestände einer kritischen Öffentlichkeit rätseln seither darüber, woher dieser das nötige Kleingeld für diesen Deal hergehabt haben könnte.
Weiterlesen

Wikipedia visuell: eyePlorer.com

eyeplorer

Unser geschätzter Wikipedia-Experte Nando Stöcklin twitterte kürzlich über eyePlorer.com, eine Plattform, die interaktiv Datenbestände der Wikipedia visualisiert. Das lädt zwar zu lustigen Spielereien ein, ein tiefer Sinn oder gar die Möglichkeit, dies auch für historische Forschungsprojekte nutzen zu können, fiel uns noch nicht ein. Aber die Kollegen von der Diadaktik-Front, die ja zur Zeit allemsamt sich in Berlin versammeln, werden uns sicherlich schon bald Ideen und entsprechende didaktische Umsetzungsschemata präsentieren.

Forschen mit und über Wikipedia. Eine Skizze

wp-georef

Das Thema Wikipedia und die Wissenschaften hat, wie in den letzten Tagen sich auch in diesen Spalten beobachten liess, immer noch Hochkunjunktur. Wir haben uns deshalb entschlossen, eine Auslegeordnung möglicher Forschungsfragen zu machen, ein Framework zu dem, was noch auf unserer Agenda steht.

Dieses Framework ist das Destillat unserer eigenen bisherigen Arbeiten, aber natürlich auch sehr stark geprägt von den Ideen und Impulsen, die hier immer wieder geäussert wurden. Ein grosses Dankeschön deshalb nach Aachen, Wien, Bern und überall dorthin, von wo die Diskussionen ebenfalls bereichert wurden.

Die Skizze wird in den nächsten Wochen in den Spalten der Schweizerischen Zeitung für Geschichte im Druck erscheinen, als Preprint ist er natürlich bereits hier verfügbar.
Weiterlesen

Ein iPhone vor der Zeit – und andere historische Anmerkungen

watchman 1924Was einem bei einem Umzug nicht so alles in die Finger gerät. Ich fand Siegfried Zielinskis Audiovisionen ((Zielinski, Siegfried: Audiovisionen. Kino und Fernsehen als Zwischenspiele in der Geschichte, Reinbek bei Hamburg: Rowohlt Taschenbuch Verlag 1989)) aus dem Jahr 1989 (damals stand die Mauer noch) und darin zwei interessante Dinge. Zum einen obige Illustration (Vollansicht), die Zielinski wie folgt umschrieb:

Das Projekt des Watchman […] beitet seinen Benutzer auch den kurzfristigen und an beliebigen Orten vollziehbaren visuellen Einstieg in Erlebniswelten an, die mit der tatsächlichen Umwelterfahrung kollidieren, sie ergänzen, kommentieren oder sogar in keinerlei Beziehung mit ihr stehen. (S. 227)

Weiterlesen

Was ist Wikistoria?

Wikistoria

Bei der Vorbereitung des jüngsten Eintrags zum Geschichtsblog des Monats bin ich auf Wikistoria gestossen, einem Projekt, das ich nicht so recht einzuschätzen vermag. Sätze wie die folgenden, lassen doch eher Skepsis aufkommen, ob sich da nicht ein paar enthusiastische Idealisten (über die man so gut wie nichts erfährt) etwas gar viel zumuten:

Stell dir einen Film vor, der dir genau zeigt, wie die Menschen früher gelebt und welche Taten sie vollbracht haben! […] Stell dir vor, du selbst könntest deine persönliche Geschichte und die deiner Vorfahren im historischen Kontext darstellen und stell dir letztendlich vor, du könntest das Rad der Geschichte zurückdrehen und ein ganz anderes historisches Szenario entwerfen, als jenes, das tatsächlich eingetreten ist. 

Das nächstbessere Angebot wäre wohl eine Zeitmaschine, um sich gleich selber vom Grossvater-Paradox zu überzeugen. Weiterlesen

Miomi und Co, oder: Die totale, partikularisierte Geschichte (und mehr)

MiomiJonas Wegener von histucation hat unter dem Stichwort „Zeitleisten im Web 2.0“ einige Projekte vorgestellt, die einen web-2.0-Zugang zur Geschichte anstreben. Auf Webplattformen sollen registrierte Nutzer ihre persönlichen Erlebnisse entlang einer Zeitleiste eintragen. Denkt man dies zu Ende, gäbe dies eine komplette Erfassung aller Ereignisse, die Menschen auf der Welt erleben und für wichtig erachten. Einerseits ein riesiger Fundus für die Geschichtswissenschafter, andererseits aber auch Ausdruck des Traums von der zugleich „totalen“ und „individualisierten“ Geschichte. Weiterlesen

Wikipedia aufgemotzt

wikimindmap500.jpg

Dass Wikipedia als Quelle für wissenschaftliche Arbeiten nicht taugt, scheint mir weitgehend unbestritten und im Grunde genommen hat die Frage, ob man nun aus Wikipedia zitieren darf oder nicht, auch nur einen ziemlich beschränktem intellektuellen Nährwert. Wer das Bedrüfnis verspürt, in seiner wissenschaftlichen Arbeit Wikipedia als (Haupt-)Quelle zu nutzen, ist vermutlich an einer Universität sowieso nur suboptimal gut aufgehoben. Das heisst aber nicht, dass man Wikipedia nicht wissenschaftlich nutzen kann – und soll. Die Transparenz und die Komplexität des Redaktionssystems, mit dem Wikipedia erstellt wird, eignet sich nämlich ausgezeichnet, um zum Beispiel diskursive Konjunkturen und semantische Netzwerke zu analysieren. Spannend wird dies, wenn man für diese Arbeiten auf entsprechende Tools zurückgreifen kann. Sehr praktisch ist zum Beispiel Wikipedia Page History Statistics, das hilft, die Bearbeitungsverläufe einzelner Wikipedia-Seiten zu analysieren. Hübsch ist auch das Tool Wikimindmap, das den Kontext einzelner Begriffe visuell darstellt. Wir sammeln weitere hilfreiche Instrumente auf unserer Wiki-Seite, das für Ergänzungen und Kommentare offen steht.