CLARIN-D Blog

CLARIN-D Newsflash Oktober 2019

Neue Ressourcen

Veröffentlichung des Korpus Digitale Sammlung Deutscher Kolonialismus im DTA/CLARIN-D-Repositorium (BBAW, Berlin). Im Rahmen eines zweijährigen, von der DFG geförderten Kooperationsprojekts der Staats- und Universitätsbibliothek (SuUB) Bremen, der Universitätsbibliothek Johann Christian Senckenberg in Frankfurt/Main und der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) wurde eine umfassende digitale Sammlung zum Deutschen Kolonialismus erarbeitet. Das mehr als 1000 Titel mit ca. 240000 Seiten umfassende Korpus „Digitale Sammlung Deutscher Kolonialismus“ (DSDK) besteht aus Publikationen, die in der Zeit des deutschen Kaiserreichs und von den genannten Bibliotheken unter dem Aspekt Kolonialismus gesammelt wurden.

Mit der Veröffentlichung des Korpus werden nun der Kolonialismusforschung, der Koloniallinguistik sowie weiteren historisch-textbasiert arbeitenden Disziplinen – und nicht zuletzt auch der breiteren Öffentlichkeit – eine in dieser Form einzigartige Sammlung an Publikationen in Bild und Text digital zur Verfügung gestellt. Die digitale Erfassung erfolgte automatisch mit Methoden der Optical Character Recognition (OCR). Die Texte wurden zunächst innerhalb der Qualitätssicherungsumgebung des Deutschen Textarchivs, DTAQ, publiziert, wo die Bände nach freier Anmeldung zugänglich und bereits vollumfänglich nutzbar sind (URL: http://www.deutschestextarchiv.de/dtaq/book?q=dsdk)

Neue Services

Das Bayerische Archiv für Sprachsignale hat eine neue Version seines Webservices API freigeben (2.31).

  • Der neue Service "AnnotConv" ist nun in Betrieb, er übersetzt signalbasierte Annotationsdateien in verschiedene Formate.
  • Neuer Service "AudioEnhance" zur Manipulation von Sprachsignalen: Kanalauswahl und -merging, Re-Sampling, Extraktion von Tonspuren aus Video-Eingaben, Amplituden-Normalisierung, Bandpass-Filterung, Rauschunterdrückung, Änderung der Sprechgeschwindigkeit ohne die Tonlage zu verändern, Änderung der Tonhöhe ohne die Sprechgeschwindigkeit zu ändern.

Vom Deutschen Textarchiv ins Language Resource Switchboard

Das Deutsche Textarchiv (DTA) an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) unterstützt seit neuestem die Übermittlung aller im DTA enthaltenen Werke an das innerhalb von CLARIN-PLUS entwickelte Language Resource Switchboard (LRS). Das LRS evaluiert die einzelnen Textdateien und bietet im

Read more

Eine zehnjährige Erfolgsgeschichte

Text verfasst von Charlotte Hartungen, ins Deutsche übersetzt von Nathalie Walker.

Was im Jahr 2009 als 5-tägige Konferenz mit vier Workshops begann, hat dieses Jahr seinen 10. Geburtstag gefeiert. Wir sprechen von der European Summer University in Digital Humanities “Culture and Technology“ (ESU) an der Universität Leipzig.

Die ESU kann gut mithilfe von ein paar Zahlen und Daten zusammengefasst werden. Während der elf Tage, an denen die ESU stattfand (23.07.-02.08.2019), kamen 92 Student*innen, (Nachwuchs-)Wissenschaftler*innen, Angehörige verschiedener Universitäten und andere am breiten Feld der Digital Humanities Interessierte nach Leipzig, um an einem der elf Workshops, die dieses Jahr angeboten wurden, teilzunehmen. Von den elf Workshops wurden vier von CLARIN ERIC unterstützt und von Expert*innen aus dem CLARIN-D Umfeld durchgeführt.

Dies waren die folgenden: Andreas Witt bot einen Workshop zum Thema “Compilation, Annotation and Analysis of Written Text Corpora. Introduction to Methods and Tools” an, Bernhard Fisseni zum Thema “Searching Linguistic Patterns in Text Corpora for Digital Humanities Research”, Christoph Draxler zum Thema “All About Data – Exploratory Data Modelling and Practical Database Access” und Janos Borst und Felix Helfer zum Thema “An Introduction to Neural Networks for Natural Language Processing – Applications and Implementation”.

Die Teilnehmer*innen aus mehr als 30 Ländern, die sich für sechs verschiedene Stipendien bewerben konnten, mussten einen oder zwei Workshops auswählen, die insgesamt 18 Sitzungen oder 36 Lehrstunden ausmachten. Neben ihrer Teilnahme an den Workshops gaben die Teilnehmer*innen selbst 14 Posterpräsentationen und 12 Projektpräsentationen. Dies war eine gute Gelegenheit für Student*innen und Nachwuchswissenschaftler*innen, ihre Forschung vor einem wissenschaftlichen Publikum zu präsentieren und Feedback und Tipps von den anwesenden Expert*innen zu bekommen.

Die ESU ist immer ein Ort, an dem

Read more

Datenmanagement in den Geisteswissenschaften: Fortschritt in der Standardisierung von Metadatenformaten für sprachbezogene Forschungsdaten

Datenmanagement in den Geisteswissenschaften: Fortschritt in der Standardisierung von             Metadatenformaten für sprachbezogene Forschungsdaten

Im Juli 2019 hat die Internationale Organisation für Normung (ISO) einen neuen Standard veröffentlicht, der dazu beiträgt, sprachbezogene Forschungsdaten bei der Archivierung aussagekräftig und nachhaltig zu beschreiben. Der Standard ISO 24622-2 „Component Metadata Specification Language“ normiert dabei, wie man ein Schema für die Beschreibung angibt, so dass die Beschreibungen bedarfsgerecht erstellt werden können.

Bei der Archivierung von Forschungsdaten werden Informationen über Daten gesammelt und so bereitgestellt, dass später auch andere Forschende diese Daten auffinden können und aus der Beschreibung zunächst Einschätzungen zur Relevanz der Daten ableiten können. Daneben können potentielle Nutzende eine Vorstellung davon erhalten, wie sie diese Daten in die eigene Forschung einbeziehen und mit ihnen eigene Forschungsfragen beantworten könnten. Diese Beschreibungen werden als Metadaten bezeichnet.

Die Erfahrung zeigt, dass es aufgrund der Unterschiede in den Arten der Forschungsdaten und der Forschungsfragen sehr schwer ist, ein allumfassendes, allgemeingültiges Muster – oder auch Schema – zu finden, nach dem die Beschreibungen zu erstellen sind. So sind psychologische Experimente anders zu beschreiben (Anzahl der Probanden, Forschungsfrage, freie und gebundene Variablen, Erfassungsystem etc.) als Textsammlungen für grammatikalische Untersuchungen oder zur Erstellung von Word-Embeddings (Anzahl der „Wörter“, Sprache, Länge der Texte, Quelle der Texte, Alter der Texte, Autoren ...). Trotz ihrer langen Tradition haben Bibliotheken für Bücher unterschiedliche Metadatenformate, z. B. Dublin Core, MARC 21, PREMIS, MODS. Viele Metadaten-Schemata haben einige Felder – auch Datenkategorien genannt –, die sich ähneln, aber auch einige Bereiche, in denen sie sich unterscheiden. Um es zu ermöglichen, Forschungsdaten sowohl angemessen zu beschreiben als auch die ähnlichen Strukturen der Metadaten auszunutzen, wurde ein Verfahren entwickelt, das als Komponenten-Metadaten-Infrastruktur („Component Metdadata Infrastructur“, auch CMDI) bezeichnet wird: Für jeden Typ von Forschungsdaten wird ein angemessenes Beschreibungsschema

Read more

CLARIN-D Newsflash Juli 2019

Neue Ressourcen

GermaNet Logo

GermaNet Version 14.0 ist nun veröffentlicht. Neu bei dieser Version sind

  • Neue Synsets und ca. 10 000 neue lexikalische Einheiten für alle Wortklassen
  • Neue Relationen zwischen Synsets

Seit November 2017 wird der Briefwechsel Daniel Sanders' im Deutschen Textarchiv veröffentlicht. Derzeit stehen 182 Briefe im Volltext bereit. Insgesamt konnten 432 Briefe aus 41 Archiven nachgewiesen und verzeichnet werden. Mehr dazu im Blogpost zum Briefwechsel Daniel Sanders'.

Die Digitalisierung des zweiten Teils des Mannheimer Korpus Historischer Zeitungen und Zeitschriften (MKHZ2) wurde abgeschlossen. Dieses Digitalisierungsprojekt wurde in Kooperation der CLARIN-Zentren in Mannheim und Berlin durchgeführt. Die Ressourcen sind nun im Deutschen Textarchiv verfügbar. Weitere Informationen im Blogpost "Presseschau um die Jahrhundertwende".

Neue Services

Am Bayerischen Archiv für Sprachsignale (BAS) in München wurden zwei neue Webservices für die Öffentlichkeit freigeschaltet (WebServices 2.30): 'AnnotConv' ist ein Service, welcher Annotationsdateien mit alignierter Zeitinformation in andere Formate konvertiert. Der zweite Service 'AudioEnhance' erlaubt die Anwendung von verschiedenen Signalverarbeitungen auf Sprachsignale des Benutzer, z.B. Filterung, Kanalselektierung und -zusammenfassung, Rauschreduktion, Tonhöhen- und Längenmanipulation. URL: http://hdl.handle.net/11858/00-1779-0000-0028-421B-4

Neue Projekte

Das neu geförderte DFG-Projekt „Die Evolution von komplexen Textmustern“ startete im Juni/Juli 2019 an den Standorten Berlin und Paderborn. Das Projekt wird in Kooperation der Universität Paderborn/Lehrstuhl für Germanistische und Allgemeine Sprachwissenschaft und des CLARIN-Zentrums der BBAW durchgeführt. Mehr dazu im Blogpost zu dem neuen Projekt.

Im Rahmen eines kürzlich bewilligten Lehrlabors mit dem Titel "Querstreben sprachförderlichen Fachunterrichts: Texte - Potenziale - Formen", wird unter der Leitung von Kristin Bührig erneut WebAnno für die Fragestellungen des Projekts eingesetzt und weiterentwickelt. Das Projekt ist Teil der vom BMBF geförderten Initiative Lehrerprofessionalisierung und startet zum Wintersemester 2019/2020.

Bei den gemeinsamen Veranstaltungen im Rahmen einer vom DAAD geförderten Insitutspartnerschaft zwischen

Read more

DHd Erfahrungsbericht: Rabea Kleymann (Universität Hamburg)

Wie prototypisch sind die Digital Humanities? Softwareprototypen auf der DHd 2019

 

„Stop apologizing for your prototypes!” [1], so lautet bereits im Jahr 2007 ein Appell von Lev Manovich an die Digital Humanities Community. Mit 14 Nennungen in unterschiedlichen Beitragsformaten [2] wurden auf der diesjährigen 6. Jahrestagung des Verbands Digital Humanities im deutschsprachigen Raum (DHd 2019) eine Vielzahl an Prototypen vorgestellt, die zugleich ein breites Spektrum an Verwendungskontexten zeigten. Ich habe mich auf der DHd 2019 einmal nach den Prototypen umgeschaut und gefragt: Was sind eigentlich Prototypen? Welche neuen Prototypen wurden vorgestellt?

 

Was unter einem Prototyp zu verstehen ist, wird in den Konferenzbeiträgen der DHd 2019 in vielfältiger Form beschrieben. So ist die Rede von ‚prototypischer Implementierung‘ oder ‚Umsetzung‘, ‚prototypischen Applikationen‘, ‚Prototypenstudie‘, ‚Software-Prototyp‘, ‚Softwarewerkzeuge‘ sowie ‚Prototyping‘ in den Varianten ‚Paper-Prototyping-Methode‘ und ‚Rapid Prototyping‘. Vorangestellt werden auch die Adjektive ‚experimentell‘, ‚digital‘ oder ‚interaktiv‘. Die Bezeichnungen überblickend deutet sich an, dass es sich um provisorische und experimentelle Formen von Software handelt, die in einer zeitlichen Relation zu einer Idee, die umgesetzt werden soll, und einem antizipierten Tool oder einer Infrastruktur stehen. Des Weiteren differenzieren die Beiträge ansatzweise zwischen nicht-digitalen und digitalen Prototyping, als ein iteratives Verfahren der Softwareentwicklung und Interfacegestaltung, und dem Softwareprototyp, als ein externalisiertes Ergebnis digitalgeisteswissenschaftlicher Forschung.

 

Basierend auf den Konferenzabstracts wurden insgesamt acht solcher Softwareprototypen in den drei Beitragsformaten Workshop, Vortrag und Posterpräsentation erwähnt oder vorgestellt. Zu nennen sind

 

-        eine interaktive 3D Webanwendung ‚Stadtmodell Dresden‘,

-        Text Broom, eine Anwendung zur Erkennung von potenziellen Verletzungen der Privatsphäre mit Hilfe einer Textverarbeitungspipeline,

-        eine 155 Bände umfassende digitale Repräsentation von Fontanes Handbibliothek visualisiert,

-        eine auf der Editions- und Forschungsplattform hallerNet als

Read more

CLARIN-D Newsflash Mai 2019

Mehr Informationen zu den Visualisierungen befinden sich hier: https://dhd2019.org/erkl%C3%A4rung-visualisierung/

Neue Services

Am Bayerischen Archiv für Sprachsignale (BAS) in München wurden zwei neue Webservices für die Öffentlichkeit freigeschaltet: 'Subtitle' ist ein frei verfügbarer Service, welcher automatisch Untertitel-Tracks für Videos erzeugt - in einer Pipeline zusammen mit automatischer Spracherkennung sogar ohne Transkript. 'Anonymizer' ist ein Service welcher Sprachsignale und zugehörige Annotationen anhand einer Lis te von Stichwörtern automatisch anonymisiert, d.h. alle Vorkommnisse eines Stichworts werden im Signal durch ein Rauschen maskiert und in allen Annotationen gelöscht bzw. durch ein definiertes Tag ersetzt . URL: http://hdl.handle.net/11858/00-1779-0000-0028-421B-4

CLARIN-D und DARIAH-DE bei DHd 2019 in Mainz und Frankfurt

Auf der DHd gab es einen gemeinsamen Infostand von CLARIN-D und DARIAH-DE.

CLARIN-D hat zusammen mit dem DHd Verband und DARIAH insgesamt neun Stipendien für NachwuchswissenschaftlerInnen vergeben. Die Erfahrungsberichte wurden im CLARIN-D Blog veröffentlicht.

DHd-Workshop zu "Qualitätsstandards und Interdisziplinarität in der Kuration audiovisueller (Sprach-)Daten", organisiert von Thomas Schmidt, Jonathan Blumtritt, Hanna Hedeland, Jan Gorisch, Felix Rau, Kai Wörner am 25./26.03.2019 in Mainz mit dem Vortrag "Vergleich der Transkription mit und ohne Spracherkennung."

Workshops und Schulungen

Vorstellung von CLARIN-D Werkzeugen und Services und Beratung für Projekte/Antragstellungen in Gießen (Zentrum für Medien und Interaktivität (ZMI)), Berlin (ZfL Berlin: Leibniz-Zentrum für Literatur- und Kulturforschung Berlin) und Braunschweig (Georg-Eckert-Institut – Leibniz-Institut für internationale Schulbuchforschung) (FAG 8: Geschichtswissenschaften)

"BAS Tutorial Tools and Services" auf der Jahrestagung der Italienischen Gesellschaft der Stimmwissenschaften (AISV) am 14.02.2019 in Arezzo

Read more

DHd Erfahrungsbericht: Enes Türkoglu (Universität Köln)

Ein Bericht über DHd2019

Es wäre nicht ungerecht zu sagen, dass Digital Humanities zuweilen einen ausgeprägten projektorientierten Charakter aufweisen. In ihrem Arbeitsalltag arbeiten die Digital HumanistInnen oft in eigenen Projektinseln. Sie beschäftigen sich mit fach- und projektspezifischen Fragestellungen und versuchen, Lösungs- und Forschungsansätze für die jeweiligen Projekte zu entwickeln und zu implementieren. Häufiger werden diese Projektinseln in einem spezifischen geisteswissenschaftlichen Fach verortet. Während immer mehr Digital Humanities Zentren begründet werden, um die unterschiedlichen Lösungs- und Forschungsansätze zu zentralisieren, arbeiten viele Digital Humanistinnen auf ihrer Insel dennoch in der Isolation. Es gibt eine gewisse Selbstverständlichkeit darüber, dass die geisteswissenschaftlichen Fragestellungen fachspezifisch sind und daher eigene Lösungsmethoden erfordern, unabhängig davon, dass sie oft ähnliche Technologien benutzen.

Abgesehen von der Diskussion, ob Digital Humanities Aktivitäten immer auf bestimmten Inseln stattfinden sollen, muss verstanden werden, dass das Arbeiten in der Isolation für Digital Humanistinnen gewisse Konsequenzen hat. Zum einen produzieren die Projektorientierung und die engen Rahmbedingungen eine Situation der definitorischen Problematik, welche die Identitätsbildung des Faches obstruiert, zum anderen kommt es häufiger vor, dass mehrere Digital Humanistinnen auf die gleichen Probleme in unterschiedlichen Fachkontexten stoßen, ohne zu wissen, dass das Problem nicht nur sie allein betrifft, und dass die Lösungen, wenn auch nicht generalisierbar und spiegelbildlich implementierbar, möglicherweise in pragmatisch-philosophischen Form auf einer anderen Insel schon erarbeitet worden sind (Thaller 2012).

Am Anfang meiner Forschung als Digital Humanist war es zumindest so, dass ich mich häufiger isoliert gefühlt habe, und das obwohl ich an der Universität zu Köln studiere, die für sich eine eHumanities-Tradition etabliert hat. Während man versucht, seine eigene Insel zu entschlüsseln, aber sich dabei auch bemüht, andere Inseln zu erforschen und deren Probleme, Herausforderungen und Lösungen zu verstehen, und man wiederum

Read more

DHd Erfahrungsbericht: Melanie Seltmann (Universität Wien)

Über den Sinn und Unsinn von Konferenzen – Ein DHd2019-Bericht

Seit ich mit meiner Dissertation begonnen habe, konnte ich schon häufiger mein Thema bzw. einen Aspekt daraus bei einer Tagung vorstellen. Eigentlich lief das ganze immer gleich ab: Ich erzählte Aspekte meines Dissertationsthemas und es gab hinterher entweder überhaupt keine Wortmeldungen dazu oder solche, die mich nicht wirklich im Nachdenken über mein Thema weiterbrachten. Ich hatte es schon fast aufgegeben, auf hilfreiches Feedback nach einer Präsentation zu hoffen.

Vom Sinn und Zweck von Konferenzen

 

Da stellt sich (nicht nur) mir die Frage, wozu sind Tagungen, Konferenzen und Workshops eigentlich da? Auch während der diesjährigen DHd-Konferenz wurde viel auf Twitter darüber diskutiert, welche Art von Vorträgen denn gewünscht seien. Viel zu wenig kritische Fragestellungen oder überhaupt Forschungsfragen würden präsentiert, eigentlich gehe es nur um Projekt- und Toolvorstellungen.

 

Und auch wenn ich zurückblicke auf die Vorträge, die ich besucht habe, und deren Output für mich, stelle ich fest, dass es vor allem diejenigen sind, die über eine Projektpräsentation hinaus gehen, die mich nachhaltig beschäftigen. Vielleicht liegt dies aber auch ein wenig daran, dass ich keinen Vortrag im Programm gefunden habe, der sich mit den Fragestellungen beschäftigt, die mich tagtäglich begleiten. Denn es ist eben keine Linguistik-Tagung, sondern eine DH-Tagung. Und man merkt nach meinem Empfinden recht deutlich, dass ein Schwerpunkt der DH auf digitalen Editionen liegt; was keinesfalls uninteressant ist, aber man muss sich irgendwann entscheiden, wofür noch Platz im eigenen Hirn ist und welchen Platz man für seine eigene Forschung und Arbeit reservieren muss.

Bis zur Konferenz und noch viel weiter

 

Doch außer in den Sektionen auf der DHd wird auch auf Twitter über die Themen diskutiert, wie

Read more

DHd Erfahrungsbericht: Svenja Guhr (Universität Göttingen)

Spannende Workshops und Vorträge abgerundet durch eine entschleunigende Schifffahrt

Vom 24. bis zum 29.03.2019 durfte ich als Reisestipendiatin an der 6. Jahrestagung der DHd in Mainz und Frankfurt teilnehmen.

Am größten war die Vorfreude auf die in Mainz stattfindenden Workshops. Abwechslungsreich hatte ich meine Auswahl getroffen und wurde nicht enttäuscht: Im ersten Workshop, angeleitet von Wissenschaftlern der Akademie der Wissenschaften und der Literatur Mainz, wurden praktische Visualisierungstools wie Neo4J, XTriples und Intergraph vorgestellt, die zur Illustration von Datenbanken verwendet werden und neue Blinkwinkel auf Forschungsdaten ermöglichen. Im zweiten Workshop wurde in die Annotations- und Analyseplattform CATMA von der Universität Hamburg eingeführt. CATMA ermöglicht es nicht nur, parallele Annotationen von Forschungsgruppen zu visualisieren und diese somit leichter vergleichbar zu machen, sondern auch eigene Annotations-Tag Sets zu erstellen und diese im Team auszutauschen, was für meine weitere Forschung sehr nützlich sein wird. Außerdem profitierte ich von dem fächerübergreifenden Austausch und den Ideen der anderen Workshop-Teilnehmenden.

Im Anschluss an die Workshoptage fand eines der Highlights der Woche statt: die gemeinsame Schifffahrt von Mainz nach Frankfurt. Auf den Wogen des Mains verlief die vierstündige Fahrt offline und informell, was nach den zwei informationsgeladenen Workshoptagen eine entschleunigende Wirkung auf die Tagungsteilnehmenden hatte. Als dann auch noch die Sonne durch die hessische Wolkendecke brach und das Wasser des Mains in ein gold-schimmerndes Licht tauchte, standen viele staunend am Heck des Schiffes, während andere am Bug die Einfahrt in den zweiten Tagungsort Frankfurt genossen.

Nach zahlreichen vielfältigen Vorträgen in Frankfurt bildete die Keynote von Jana Diesner (Computational Social Science) aus Illinois über das Messbarmachen des Einflusses von Wissenschaft auf die Gesellschaft einen gelungenen Abschluss der Jahrestagung. In ihrem Beitrag schilderte sie neue Ansätze zur Sentimentanalyse und zum

Read more

DHd Erfahrungsbericht: Carsten Klaus (Universität des Saarlandes)

Blogbeitrag Carsten Klaus

Die 6. Jahrestagung der DHd 2019 begann für mich schon in Mainz. Im Philosophicum am Campus der Uni Mainz nahm ich am Workshop „Automatic Text and Feature Recognition: Mit READ Werkzeugen Texte erkennen“ teil. Hierbei wurde vor allem im Rahmen von READ (Recognition and Enrichment of Archival Documents) das Tool Transkribus vorgestellt. Hierbei handelt es sich um ein Programm zur Erkennung von Texten in Bilddateien. Jedem der Teilnehmer des Workshops war ein Dokumentausschnitt in Form von solchen Dateien zugeordnet. Daraus unterstützte Transkribus die Erkennung der einzelnen Zeilen, des Layouts und anschließend die Erkennung der einzelnen handschriftlichen Wörter, siehe Screenshot.

Dieser Prozess basierte auf Methoden des maschinellen Lernens, genauer Convolutional Neural Networks und Recurrent Neural Networks. Besonders spannend fand ich das Training eigener Modelle. Hierbei wurden Bilddateien mit den zugehörigen Textdateien, der sogenannten Ground Truth, verknüpft. Diese Daten dienten als Lehrmaterial für das Netzwerk. Theoretisch könnte man hiermit ein Modell entwerfen, welches explizit die eigene Handschrift erkennt, sodass man eigens aufgeschriebene Texte transkribieren kann, und das spielend einfach.

Nach dem Workshop hieß es „Leinen Los!“. Die Teilnehmer versammelten sich am Fort Malakoff, zu einer gemeinsamen Schiffstour nach Frankfurt. In einem gemütlichen Tempo ging es vom Rhein in den Main. Hierbei wurde bei etwas teuren, aber schmackhaften Getränken die Rhein-Main Region genossen. Vor allem die im Sonnenuntergang schimmernde Skyline Frankfurts war ein Hingucker. Am Eisernen Steg machte das Schiff schließlich halt.

 

Erwähnenswert ist die hervorragende Organisation des Ablaufs. Es standen am Steg direkt Busse bereit, die uns zur Goethe Universität brachten. Hier wurde im Zuge einer Einführungsveranstaltung die DHd 2019 im Hörsaalzentrum eröffnet. Im Anschluss gab es Häppchen und Getränke für die „ausgehungerten“ Teilnehmer.

Donnerstag war für mich

Read more