Sprachressourcen und Dienste

Tutorien

Tutorien

Die Tutorien zur technischen Integration linguistischer Werkzeuge/Ressourcen als Web Services in WebLicht liegen ausschließlich auf Englisch vor, weshalb sie hier, im englischsprachigen Bereich dieser Seite, zu finden sind.

WebLicht

WebLicht - Ein Web-Basiertes Analysewerkzeug

WebLicht ist eine Service-orientierte Architektur (SOA) zur Erstellung annotierter Textcorpora. Sie wird seit Oktober 2008, und damit bereits im Rahmen des CLARIN-D-Vorgängerprojekts D-SPIN, entwickelt. Die Weiterentwicklung von WebLicht zu einer umfassenden virtuellen Forschungsumgebung stellt einen wichtigen Aspekt in der Implementierung der CLARIN-D Infrastruktur dar.

WebLicht liegen Restful Web Services zugrunde, die vom Benutzer zu beliebigen Ketten kombiniert werden können. Jeder Web Service kapselt ein sprachtechnologisches Werkzeug oder gewährt Zugriff auf eine linguistische Resource. Dies beinhaltet etwa die Abfragekomponente eines Korpus, einen Konverter, einen Tokenizer, einen Tagger, einen Parser oder dergleichen. Außerdem beinhaltet WebLicht Konverter für linguistische Ein- u. Ausgabeformate. Jeder Web Service fügt Annotationsebenen in Form spezifisch angereicherter Information hinzu. Am Ende der Kette steht ein mit linguistischen Informationen angereichertes Texkorpus, das in Form eines XML-Dokuments weiter online analysiert, visualisiert oder heruntergeladen werden kann.

Damit die Web Services ineinandergreifen können, muss Kompatibilität zu einem von allen Diensten "verstandenen" gemeinsamen Austauschformat sichergestellt werden. Hierbei handelt es sich um das projektintern definierte Text Corpus Format (TCF). Letzteres ist weitgehend kompatibel mit bestehenden einschlägigen Formaten wie Negra, Paula, TüBa-D/Z etc., bzw. über spezifische Konverter jederzeit übersetzbar.


Der Login bei WebLicht ist hier möglich. Voraussetzung zur Nutzung ist ein Account in der CLARIN Service Provider Federation. Weitergehende Informationen finden Sie hier.

Virtual Language Observatory

Virtual Language Observatory

Das Virtual Language Observatory (VLO) ist eine Suchmaschine für Sprachressourcen. Das VLO nutzt die von den Ressourcenanbietern zur Verfügung gestellten Informationen über Daten und Dienste, extrahiert relevante Angaben und stellt sie in übersichtlicher Form auf einer Webseite zur Verfügung.

Derzeit sind Metadaten zu ungefähr 360.000 Ressourcen über das VLO abfragbar (Stand März 2013). Das VLO unterstützt sowohl eine facettierte Suche häufig benötigter Kategorien (wie Sprache, Herkunft oder Art der Ressource) als auch die Eingabe von Suchbegriffen (ähnlich einer Suchanfrage in gewöhnlichen Web-Suchmaschinen). Für die einzelnen Ressourcen steht jeweils eine Übersichtsseite zur Verfügung, die alle vorhandenen Informationen zusammenfasst und auf die konkreten Daten verweist.

Virtual Language Observatory

Werkzeuge und Dienste

Werkzeuge und Dienste

Bayerisches Archiv für Sprachsignale, München:

BAS logo

  • WebMAUS
    Der Webservice WebMAUS (CMDI) segmentiert und labelt vollautomatisch Sprachaufnahmen in Phoneme (SAM-PA). Die WebMAUS-Services können per REST-Aufruf aus anderen Applikationen (z.B. ELAN, Weblicht) oder in Batch-Skripten aufgerufen werden. Ein komfortabeles und interaktives Web-Interface befindet sich hier.
    Tutorial auf Youtube.
  • SpeechRecorder
    SpeechRecorder Supervisor ScreenSpeechRecorder ist ein Anwendungsprogramm für skriptgesteuerte Sprach- und Audioaufnahmen. Seine besonderen Eigenschaften sind
    • Plattform-Unabhängigkeit
    • Unterstützung aller vom Betriebssystem erkannten Audiogeräte
    • Text-, Bild- und Audioprompts
    • Getrennte Aufnahmeleiter- und Sprecheransichten
    • Volle Unicode-Unterstützung
    • Lokalisierte Benutzeroberfläche
    In SpeechRecorder besteht ein Aufnahmeskript aus Abschnitten, die wiederum Aufnahme-Items enthalten. Abschnitte werden sequenziell präsentiert und strukturieren damit eine Aufnahmesitzung. Innerhalb eines Abschnitts können die einzelnen Aufnahme-Items sequenziell oder in zufälliger Reihenfolge aufgenommen werden. Ein Aufnahme-Item definiert die Vorgabe, die dem Sprecher präsentiert wird, einen eindeutigen Itemcode, die Aufnahmedauer sowie Vor- und Nachlaufzeiten.
    Jede Aufnahme wird ein eine eigene WAV-Datei geschrieben (Versionierung ist möglich), und für jede Aufnahmesitzung legt SpeechRecorder ein eigenes Verzeichnis auf der lokalen Festplatte an. SpeechRecorder erlaubt eine präzise Kontrolle der Aufnahmen über eine Ampel: rot bedeutet ‘nicht sprechen’, gelb ‘bald sprechen’, und grün ‘sprechen’. Der Fortgang der Aufnahmen durch das Skript kann manuell, halb- oder vollautomatisch erfolgen. Die Software steht unter der LGPL 3.0 Lizenz.
    Zur Webseite.
    Zum Wikipedia-Eintrag.
  • WikiSpeech
    WikiSpeech AufnahmeWikiSpeech ist ein Framework für skriptgesteuerte Sprachaufnahmen über das WWW. Damit sind überall auf der Welt, wo es einen Internetzugang gibt, strukturierte Aufnahmesitzungen in technisch hoher Signalqualität möglich, ohne dass auf dem lokalen Rechner spezielle Software installiert werden muss. Die Anzahl gleichzeitiger Aufnahmen ist unbeschränkt, so dass viele parallele Aufnahmen an mehreren Aufnahmeorten möglich sind. WikiSpeech basiert auf der Aufnahmesoftware SpeechRecorder und unterstützt die Erstellung und Verwaltung von Aufnahmeprojekten.
    Das BAS bietet WikiSpeech als Dienstleistung an. Nutzer registrieren sich und legen dann über eine grafische Benutzeroberfläche eigene Aufnahmeprojekte an. Für die eigentlichen Aufnahmen schicken sie den Sprechern nur einen Link auf das eigene Aufnahmeprojekt. Ein Sprecher meldet sich dann mit Kennung und Passwort an, füllt ein Formular mit notwendigen Metadaten (z.B. Geschlecht, Alter, usw.) aus und beginnt dann mit den eigentlichen Aufnahmen. Bereits während einer Aufnahmesitzung werden die aufgenommenen Sprachdaten an den Server übertragen, so dass jederzeit eine genaue Übersicht über den Stand der Aufnahmen gegeben ist. Nach Beendigung der Sitzung stellt WikiSpeech sicher, dass alle Daten übertragen wurden und gibt den lokalen Speicher wieder frei.
    WikiSpeech wurde erfolgreich in Sprachdatensammlungen in Deutschland, Schottland, England, den Niederlanden und sogar der Antarktis eingesetzt.
    Zur Webseite.

Berlin-Brandenburgische Akademie der Wissenschaften, Berlin:

Die an der BBAW entwickelte linguistische Suchmaschine DDC ermöglicht Suchen über BBAW-Korpora mit Hilfe von logischen Operatoren, Abstandsoperatoren und linguistischen Termen, die auf die annotierte Wortart der Textwörter Bezug nehmen. Die Ausgabe sind Textfragmente (Konkordanzen), auf die der Suchausdruck passt.

Der POS-Tagger moot beruht auf statistischen Verfahren zur Disambiguierung lexikalischer Klassen. Zusätzlich zu den klassischen Bigramm-/Trigramm-basierten Tagging-Routinen berücksichtigt dieses Verfahren benutzerdefinierte a-priori Mengen von möglichen Analysen (sog. lexikalische Klassen) für jedes Eingabewort. Hierdurch ist es möglich, die vom Tagger getroffenen Analysen auf die von der Morphologie vorgeschlagenen lexikalischen Kategorien zu beschränken. Im Vergleich zu einem traditionellen Hidden-Markov-Modell führt dieses Verfahren zu einer Fehlerreduktion von bis zu 21%.

Der Eigennamenerkenner für historische Texte der BBAW beruht auf einem regelbasierten Ansatz und stützt sich auf große lexikalische Ressourcen wie eine vollständige Morphologie des Deutschen und umfangreiche Eigennamenlisten. Der Erkenner ist für die Analyse von deutschen historischen Texten optimiert. Zur Implementierung des Werkzeugs wurden hauptsächlich Finite-State-Techniken verwendet.


Englische Sprach- und Übersetzungswissenschaft, Saarbrücken:

SALTO ist ein graphisches Werkzeug für die manuelle Annotation von Textkorpora. Es unterstützt die Annotation einer zweiten Annotationsebene (z.B. einer semantischen) auf einer existierenden syntaktischen Annotationsebene. Im SALSA-Projekt entwickelt, wurde es dazu benutzt semantische Rollen und Klassen (FrameNet) zu annotieren. Die Hauptfeatures sind: die Auswahl eines Datensatzes für die Annotation (anfragegestützt); Definition von Annotationschemata; Annotationsmanagement (Verteilung von Korpora, Qualitätskontrolle).

SemiNER logo ist ein semi-supervised Named-Entity-Erkenner (trainiert für die Deutsche Sprache).

ANVIL ist ein frei erhältliches Annotationstool. Es bietet die Möglichkeit zur mehrdimensionalen Annotation basierend auf einem benutzerdefinierten Kodierungsschema. Während des Kodierens sieht der Benutzer farbkodierte Elemente zeitlich aligniert auf mehreren Spuren. Spezielle Features des Tools sind ebenenübergreifende Links, nicht-temporale Objekte, Zeitspuren, Analyse der Übereinstimmung der Kodierung und ein Projektwerkzeug für die Verwaltung von Annotationsdateien ganzer Korpora.


Hamburger Zentrum für Sprachkorpora:


EXMARaLDA
("Extensible Markup Language for Discourse Annotation") ist ein System von Konzepten, Datenformaten und Werkzeugen für die computergestützte Transkription und Annotation gesprochener Sprache, sowie für das Erstellen und Auswerten von Korpora gesprochener Sprache. Zum EXMARaLDA-System gehören der Partitur-Editor, der Corpus Manager und das Analyse- und Konkordanztool EXAKT.

Mit dem EXMARaLDA Partitur Editor können Audio- oder Videoaufnahmen transkribiert und auf mehreren Ebenen annotiert werden. Für gängige Transkriptionssysteme (HIAT, GAT, CHAT) ist eine Segmentierung bzw. Syntaxkontrolle integriert. Der Partitur Editor kann mit anderen Werkzeugen wie Praat und TreeTagger verwendet werden und exportiert außer dem EXMARaLDA-Format auch z.B. EAF (ELAN), FOLKER, Praat und TEI. Die erstellten Transkriptionen können wahlweise in Partiturformat (z.B. für HIAT) oder Listenformat (z.B. für GAT, CA) visualisiert werden, auch weitere Ansichten und Analysen (z.B. Wortlisten) der Transkriptionsdaten sind möglich.

Der EXMARaLDA Corpus Manager (Coma) wird für das Anlegen, Pflegen und Analysieren von Korpora gesprochener Sprache eingesetzt. So können Metadaten für das Korpus und seine Bestandteile (Kommunikationen, Sprecher, Dateien) verwaltet und analysiert werden, das Korpus auf Fehler überprüft, sowie gängige Korpusstatistiken generiert werden.

Das EXMARaLDA Analyse- und Konkordanztool (EXAKT) ist speziell für das Durchsuchen und Analysieren von Korpora gesprochener Sprache entwickelt worden ist. Neben der klassischen Konkordanzansicht (KWIC) wird beim Auswählen eines Suchtreffers die Belegstelle in der ursprünglichen Transkription mit eingebundenem Audio- oder Videoaufnahme visualisert und Metadaten zur Kommunikation oder zu den Sprechern können eingeblendet und für weiteres Filtern oder eine Analyse herangezogen werden. Analysen können gespeichert und weiter bearbeitet werden.

TEI Drop ist ein Werkzeug zum Segmentieren (Tokenizing) und Konvertieren von Transkriptionsdaten aus verschiedenen Tools (EXMARaLDA, FOLKER, ELAN, Transcriber, CLAN) in verschiedenen Konventionen (HIAT, cGAT) in ein TEI-konformes Austauschformat.


Institut für Deutsche Sprache, Mannheim:

COSMAS 2: LogoCOSMAS II (Corpus Search, Management and Analysis System) ist eine am IDS konzipierte Volltextdatenbank für das linguistisch motivierte Recherchieren in den Korpora des IDS. Das stetig wachsende Deutsche Referenzkorpus (DeReKo, über 5 Mrd. Wörter aus Zeitungen, Sach-, Fach- sowie schöngeistiger Literatur aus Deutschland, Österreich und der Schweiz von 1772 bis heute) und andere schriftsprachliche Korpora des IDS werden über COSMAS II zugänglich gemacht.

Die Kookkurrenzdatenbank CCDB ist eine korpuslinguistische Denk- und Experimentierplattform, ein transparentes Labor zur Erforschung, Entwicklung und Evaluierung einer Methodik zur datengeleiteten Exploration und Modellierung des Sprachgebrauchs. Sie ermöglicht dem Nutzer, linguistische Phänomene konsequent empirisch zu erschließen und wird zurzeit u.a. für die Formulierung von neuen sprachgebrauchsbezogenen linguistischen Hypothesen, die Modellierung semantischer Verwandtschaft oder die Visualisierung von Verwendungsaspekten verwendet.


Institut für Informatik, Abteilung Automatische Sprachverarbeitung, Leipzig:

Logo SOAP Web Services, Uni LeipzigMit den Webservices ist ein direkter Zugriff auf die Daten des Projektes Deutscher Wortschatz aus einer beliebigen Software heraus über die SOAP-Schnittstelle möglich. Zu den angebotenen Services gehören: Frequenzen, Kookkurrenzen, linke/rechte Nachbarn, Synonyme und zahlreiche weitere Angaben.

Die ASV Toolbox ist eine modulare Sammlung von Tools zur Exploration geschriebener Sprache. Die Tools arbeiten entweder über Wortlisten oder Text und lösen verschiedene linguistische Aufgaben wie Klassifikation und Clustering. Die adressierten Probleme umfassen Spracherkennung, POS-Tagging, Grundformreduktion, Eigennamenerkennung und Terminologieextraktion. Allgemein ausgedrückt: Die Verfahren behandeln verschiedene Formen der Wortähnlichkeit mit Hilfe von musterbasierten und statistischen Ansätzen. Die Toolkollektion kann sowohl zur Arbeit mit großen, in der Praxis anzutreffenen Datensätzen als auch zum Studium der zugrundeliegenden Verfahren eingesetzt werden. Die ASV Toolbox kann auf Textdateien arbeiten, oder sich mit einer MySQL-Datenbank verbinden. Obwohl sie speziell für die Arbeit mit der Leipzig Corpora Collection entworfen wurde, kann sie leicht für den Einsatz auf anderen Ressourcen adaptiert werden.


Institut für Maschinelle Sprachverarbeitung, Stuttgart:

Sie wollen ein textuell vorliegendes Korpus automatisch in Wort- und Satzeinheiten segmentieren und mit linguistischen Informationen anreichern? Hierfür bietet das IMS eine Reihe von Werkzeugen für das Deutsche und auch andere Sprachen an. Die Werkzeuge sind als Web Services in WebLicht integriert, so dass Sie Ihre Daten dort online aufbereiten können. Alternativ können Sie die Werkzeuge herunterladen und lokal auf Ihre Daten anwenden -- allerdings stehen hier ggfs. nicht alle integrierten Lexika zur Verfügung.

TreeTagger

Der TreeTagger (Helmut Schmid) ist ein Werkzeug zur Annotation textueller Daten mit Wortarten (POS)- und Lemmainformation. Voraussetzung zur Anpassung an eine gegebene Sprache ist das Vorhandensein eines Lexikons und eines händisch getaggten Trainingskorpus. Der TreeTagger wurde bereits hinsichtlich einer Vielzahl von Sprachen zur Anwendung gebracht. So stehen u.a. Parameterdateien für Englisch, Deutsch, Italienisch, Niederländisch, Spanisch, Bulgarisch, Russisch, Französisch und Altfranzösisch zur Verfügung. Neben der wortbezogenen Analyse bietet der TreeTagger für einzelne Sprachen auch eine Chunking-Option, die z.B. Nominal- und Präpositionaleinheiten markiert.

RFTaggerDer RFTagger (Helmut Schmid und Florian Laws) ist ein Wortarten (POS)-Tagger, der für feinkörnige POS-Tagsets geeignet ist, die etwa morphosyntaktische Information mitkodieren und daher im Vergleich zu gröberen Tagsets deutlich mehr Kategorien aufweisen. Der RFTagger wurde für LINUX entwickelt. Adaptionen für andere Betriebssysteme sind auf der Tagger-Webseite verzeichnet. Trainiert wurde der RFTagger über Daten des Deutschen, Tschechischen, Slovenischen und Ungarischen, die entsprechenden Parameterdateien stehen als Download zur Verfügung.

smorBei SMOR (Helmut Schmid) handelt es sich um eine Morphologie für das Deutsche, die mittels SFST (siehe unten) umgesetzt wurde. Eine Version von SMOR samt Beispiellexikoneinträgen ist als Teil der SFST-Toolsammlung herunterladbar. Eine Nutzung der Vollversion von SMOR setzt die Lizenzierung von IMSLex voraus.

sfstSFST (Stuttgart Finite State Transducer Tools, Helmut Schmid) ist eine Toolsammlung zur Implementierung morphologischer Analyse und anderer Ansätze, die auf Finite State Transducers basieren. Es sind enthalten: Compiler (Programme -> Transduktoren), Werkzeuge zur interaktiven und Batch-Analyse, Vergleich und Ausdruck von Transduktoren, effiziente C++-Bibliothek, eine Version von SMOR (siehe oben) mit Beispiellexikoneinträgen.

bitpar screenshotBitPar (Helmut Schmid) ist ein effizienter syntaktische Parser für Baumbank-basierte Grammatiken. Mit BitPar kann man von syntaktisch annotierten Korpora probabilistische, kontextfreie Grammatiken ableiten und damit Konstituentenstruktur-Analysen von Sätzen erzeugen. Ambige Lösungen werden mit Wahrscheinlichkeiten bewertet und können entsprechend gefiltert werden. Grammatiken für das Englische (TRACE, basierend auf der PENN-Treebank) und das Deutsche (basierend auf dem TiGer-Korpus) sind bereits Teil des Pakets.

bohnet screenshotDarüber hinaus wird der Bohnet-Parser angeboten, ein State-of-the-Art-Dependenzparser mit vorgeschaltetem POS-Tagger und Lemmatisierer, der ebenfalls in WebLicht verfügbar ist. Die in der Verarbeitungskette enthaltenen Werkzeuge sind aufeinander optimiert, prinzipiell sprachunabhängig, sehr effizient und weisen einen besonders hohen Grad an Korrektheit auf. Sie sind als datengetrieben zu charakterisieren und beruhen in der Anwendung hinsichtlich bestimmter Sprachen auf einschlägig vortrainierten Sprachmodellen. Es kommen keine gesonderten Lexika oder Morphologien zum Einsatz. Angeboten werden die Werkzeuge für das Deutsche, Englische und ggfs. weitere Sprachen (Tschechisch, Chinesisch u.a.). Der Bohnet-Parser wird voraussichtlich hinsichtlich eines von Anders Björkelund entwickelten Semantic Role Labellers ergänzt werden.

Der Bohnet-Parser stellt auch die Basis eines interaktiven Systems zur Extraktion von Relationen aus Texten dar, dass zur Zeit am IMS von Andre Blessing entwickelt wird. Mithilfe dieser Software soll es Fachwissenschaftlern möglich werden, für sie interessante Forschungsfragen über Textsammlungen halbautomatisch zu beantworten. Ein Beispiel für eine Fragestellung aus der Wissenschaftssoziologie wäre etwa die Analyse der Relation "war-Doktorvater-von" über großen historischen Textsammlungen. Hierfür müssen durch das System generierte Ergebnisse vom Nutzer als positiv oder negativ bewertet werden, so dass das System neu trainiert werden kann und in der Folge bessere Ergebnisse liefern wird, die natürlich ihrerseits durch entsprechende Rückmeldung und neuerliches Retraining verbessert werden können.

Tiger logo TIGERSearch ist eine Suchmaschine für Anfragen an syntaktisch annotierte Korpora wie dem TIGER-Korpus. Das Tool kommt mit einer optionalen grafischen Benutzeroberfläche, so dass die Benutzer Teilstrukturen intuitiv durch das 'Zeichnen' von Teilbäumen erfragen können. Zusätzlich bietet TIGERSearch eine leistungsstarke textuelle Abfragesprache. Das Tool enthält XML-basierte Schnittstellen für den Korpusimport sowie für den Export der Suchergebnisse. Die Abfrageergebnisse können manipuliert und aggregiert werden. Außerdem sind z.B. grundlegende Werkzeuge für Frequenzberechnungen und Export von Abfrage-Ergebnisse in KWIC (keyword-in-context)-Format enthalten.


Max-Planck-Institut für Psycholinguistik, Nijmegen:

Die Softwaresuite "Language Archiving Technology" ist hier zu finden. Unter anderem findet man dort ELAN (zur Erstellung multimediabasierter Annotationen), LEXUS (zur Erstellung von Lexika) und ARBIL (zur Erstellung von IMDI- und CMDI-Metadaten).

Außerdem gibt es noch das Virtual Language Observatory, mit dem man Daten einerseits mithilfe von Facetten und andererseits unter Zuhilfenahme von geographischer Information durchsuchen kann.


Seminar für Sprachwissenschaft, Abteilung Computerlinguistik, Tübingen:

WebLicht-Logo

WebLicht-Logo

Die Plattform WebLicht wird in Tübingen bereitgestellt und integriert Dienste aus Tübingen sowie von anderen CLARIN-D-Zentren.

CiNaViz

CiNaViz: Neue Webapplikation zur Visualisierung europäischer Städtenamen

Wo in Europa finden sich die meisten Städtenamen, die auf "ona" enden? Diese und andere Fragen lassen sich mit CiNaViz beantworten. CiNaViz ist eine CLARIN-D Webapplikation, die Such- und Visualisierungsmöglichkeiten zur Verteilung von Städtenamen (oder Teilen davon) in Europa zur Verfügung stellt.

Die Abbildung rechts zeigt die Verteilung von Städtenamen, die auf "bach" (rot), "beck" (grün) und "bek" (blau) enden. Oft entspricht die geographische Verteilung der Städtenamen dem Verlauf dialektaler Isoglossen (so im Beispiel die Benrath-Linie zwischen den Vorkommen von "bach" und "beck").

CiNaViz ist frei zugänglich und läuft in jedem modernen Browser.


TüNDRA – Tübingen Annotated Data Retrieval Application

TüNDRA Constituency DataTüNDRA ist eine Webanwendung für die Abfrage und Visualisierung von Baumbanken. TÜNDRA ermöglicht den Zugang zu Baumbanken mit Konstituenten- oder Dependenz-Annotation. Nutzer können Phrasenstrukturen auf mehrere Arten visualisieren lassen.

TüNDRA unterstützt beliebige Merkmale von Token und Konstituenten, sowie gemischte Datenstrukturen. wie zum Beispiel Dependenzdaten mit Konstituenten, Kantenlabeln, kreuzenden und sekundären Kanten zwischen beliebigen Baumelementen.

TüNDRA Dependency DataDie Abfragesprache benutzt eine Variante der TIGERSearch Abfragesyntax, die von dem weit verbreiteten TIGERSearch-Programm entwickelt wurde. Merkmale und Relationen von Annotationen, Token, Konstituenten und hierarchischen Beziehungen innerhalb von Syntaxbäumen sind abfragbar. TÜNDRA ermöglicht die Negation aller abfragbaren Relationen. Ebenso werden Anfragen nach der Oberflächenstruktur, Knotenabstand und Größe der Phrase unterstützt.

TüNDRA wird von den meisten gängigen Browsern unterstützt und erfordert keine spezielle Software oder Plug-Ins.


Archiv

LT4DH

LT for DH: Language Technology Resources and Tools for Digital Humanities Workshop bei der COLING 2016

Zur Übersichtsseite »

Kick-Off-2020

Die Kick-Off-Veranstaltung der Auf- und Ausbauphase von CLARIN-D fand am Donnerstag, 03.11.2016 und am Freitag, 04.11.2016 am Mediencampus in Leipzig statt.

Zur Übersichtsseite »

Forum CA3 2016

Mit dem Forum CA3 2016 stellte die Forschungsinfrastruktur CLARIN-D ihre Angebote zum Auffinden, Auswerten und Aufbewahren von Sprachressourcen für die Forschung und Lehre in den Geistes- und Sozialwissenschaften vor.

Zur Übersichtsseite »

Newsletter

Die zwischen 2011 und 2015 entstandenen Newsletter sind ab jetzt im Archiv zu finden.

Zur Übersichtsseite »