<<     Inhalt     >> 


 

1.2      Big Data und Informationsexplosion

Die Wissensexplosion und die Verteilung von Informationen aus menschlichen Aktivitäten oder aus Maschinen sowie Software nehmen kaum vorstellbare Dimensionen an.

Unter „Big Data“ versteht man Datenmengen, die aufgrund ihrer Größe, ihrer Komplexität, der Geschwindigkeit ihrer Entstehung sowie ihrer Übertragung, der Vielfalt ihrer Datentypen und -quellen sowie v. a. aufgrund ihrer schwachen oder fehlenden Strukturierung mit herkömmlichen Datenverarbeitungsmethoden nicht mehr auswertbar sind.

„Hintergrund der Diskussionen um Big Data ist der starke Anstieg des weltweiten Datenvolumens. Eine Vielzahl unterschiedlicher Quellen ist dafür verantwortlich: Sensordaten, Maschinendaten, Log-Daten, das WordWideWeb oder RFID-Chips. Im Jahre 2011 knackte das weltweite Datenvolumen die Zettabyte-Barriere (1 mit 21 Nullen) und ein Ende des Wachstums ist nicht in Sicht. 2020 sollen es bereits 35 Zettabyte sein.” (http://www.softselect.de/wissenspool/big-data, Zugriff 13.02.2017)

Typische Quellen und Arten von Big Data sind:

  • Sprachdaten (v. a. auch mehrsprachig)
  • Daten, die von Behörden oder Unternehmen gesammelt und produziert werden
  • Informationen und Interaktionen aus sozialen Netzwerken
  • Nutzungsdaten (z. B. Reise-/Bewegungsdaten, Gesundheitsdaten-Tracking) von Geräten oder Systemen wie Navigationssysteme, Smartphones, Wearables
  • vernetzte Technik im Alltag (z. B. in Häusern und Kraftfahrzeugen) und in der Produktion (Smart Factory, vgl. Abschnitt 1.3)

Die Aufgabe von Wissensspezialisten ist es, aus diesen vielen Quellen und Beständen Wissen zu generieren, das zu unterschiedlichen Zwecken verwendet werden kann.

Letztlich wird das Big-Data-Phänomen durch die Mehrsprachigkeit noch um ein Vielfaches verstärkt. Die ohnehin schon unbeherrschbare Menge an Daten wird durch die Multiplikation in viele Sprachen schier endlos. Gerade hier sind also weitere Verfahren notwendig, um die Informationen aus diesen mehrsprachigen Daten zugänglich zu machen und in computerlesbares Wissen umzuwandeln.

Während viel über Big Data gesprochen wird, darf jedoch nicht übersehen werden, wie wichtig es ist, auch brauchbare Ansätze zur Verarbeitung kleinerer Datenbestände (Small Data) zu entwickeln. Auch kleinere Datenpakete (z. B. Konversation in Echtzeit) müssen so aufbereitet werden, dass sie für Menschen und/oder Maschinen verständlich und verarbeitbar sind.

 



<<     Inhalt     >> 



© 2017 DIT (Deutsches Institut für Terminologie e.V.)
Petra Drewer, François Massion, Donatella Pulitano


 

Aktuelles

  • 30 Jahre Deutscher Terminologie-Tag e.V.

    Wir laden alle Mitglieder herzlich zu einem Umtrunk und Häppchen nach unserer JMV ein. Termin: 28. April 2017 Ort: Mannheim

    Weiterlesen...

  • DTT-Webinar: „TermBase eXchange (TBX) für Einsteiger“

    Termin: 18. Mai 2017, 10:00 - 11:00 Uhr Ort: Online

    Weiterlesen...

  • DTT-Webinar: „TermWeb“

    Termin: 15. Mai 2017, 10:00 - 11:00 Uhr Ort: Online

    Weiterlesen...

  • DTT-Vertiefungsseminar: „Terminologiearbeit – Projekte, Prozesse, Datenaustausch“

    Termin: Freitag, 28. April 2017, 9:00 - 17:30 Uhr und Samstag, 29. April 2017, 9:00 - 17:30 Uhr Ort: Mannheim

    Weiterlesen...

edition: Neuste Ausgabe

  • edition 2/2016

    Inhalt Emoji als universelle Sprache? Eine technische und terminologische Betrachtung Autor: Tamara Arndt Emoji are heavily used in nowaday’s electronic communications all over the world. This article approaches the question whether emoji can be viewed...

    Weiterlesen: edition 2/2016

Fortbildung

  • Termine | Seminare | Webinare

    Symposion, Seminar oder Webinar? Hier finden Sie alle kommenden Termine des DTT und ausgewählte Veranstaltungen unserer Partnerverbände im Überblick. Wir freuen uns auf Ihre Teilnahme!

    Weiterlesen: Termine |...