Gesamten Artikel als PDF herunterladen 
 Feedback bitte an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein! 



<<
    Inhalt     >> 


 

1.2      Big Data und Informationsexplosion

Die Wissensexplosion und die Verteilung von Informationen aus menschlichen Aktivitäten oder aus Maschinen sowie Software nehmen kaum vorstellbare Dimensionen an.

Unter „Big Data“ versteht man Datenmengen, die aufgrund ihrer Größe, ihrer Komplexität, der Geschwindigkeit ihrer Entstehung sowie ihrer Übertragung, der Vielfalt ihrer Datentypen und -quellen sowie v. a. aufgrund ihrer schwachen oder fehlenden Strukturierung mit herkömmlichen Datenverarbeitungsmethoden nicht mehr auswertbar sind.

„Hintergrund der Diskussionen um Big Data ist der starke Anstieg des weltweiten Datenvolumens. Eine Vielzahl unterschiedlicher Quellen ist dafür verantwortlich: Sensordaten, Maschinendaten, Log-Daten, das WordWideWeb oder RFID-Chips. Im Jahre 2011 knackte das weltweite Datenvolumen die Zettabyte-Barriere (1 mit 21 Nullen) und ein Ende des Wachstums ist nicht in Sicht. 2020 sollen es bereits 35 Zettabyte sein.” (http://www.softselect.de/wissenspool/big-data, Zugriff 13.02.2017)

Typische Quellen und Arten von Big Data sind:

  • Sprachdaten (v. a. auch mehrsprachig)
  • Daten, die von Behörden oder Unternehmen gesammelt und produziert werden
  • Informationen und Interaktionen aus sozialen Netzwerken
  • Nutzungsdaten (z. B. Reise-/Bewegungsdaten, Gesundheitsdaten-Tracking) von Geräten oder Systemen wie Navigationssysteme, Smartphones, Wearables
  • vernetzte Technik im Alltag (z. B. in Häusern und Kraftfahrzeugen) und in der Produktion (Smart Factory, vgl. Abschnitt 1.3)

Die Aufgabe von Wissensspezialisten ist es, aus diesen vielen Quellen und Beständen Wissen zu generieren, das zu unterschiedlichen Zwecken verwendet werden kann.

Letztlich wird das Big-Data-Phänomen durch die Mehrsprachigkeit noch um ein Vielfaches verstärkt. Die ohnehin schon unbeherrschbare Menge an Daten wird durch die Multiplikation in viele Sprachen schier endlos. Gerade hier sind also weitere Verfahren notwendig, um die Informationen aus diesen mehrsprachigen Daten zugänglich zu machen und in computerlesbares Wissen umzuwandeln.

Während viel über Big Data gesprochen wird, darf jedoch nicht übersehen werden, wie wichtig es ist, auch brauchbare Ansätze zur Verarbeitung kleinerer Datenbestände (Small Data) zu entwickeln. Auch kleinere Datenpakete (z. B. Konversation in Echtzeit) müssen so aufbereitet werden, dass sie für Menschen und/oder Maschinen verständlich und verarbeitbar sind.

 



<<     Inhalt     >> 



© 2017 DIT (Deutsches Institut für Terminologie e.V.)
Petra Drewer, François Massion, Donatella Pulitano


 

Aktuelles

  • DTT-Webinar: „Hands on: Terminologiearbeit mit ChatGPT“

    Termin: 18. September 2024, 13:00 - 14:30 Uhr Ort: Online

    Weiterlesen...

  • DTT-Webinar: „Benennungsbildung und -bewertung“

    Termin: 4. September 2024, 10:00 - 11:00 Uhr Ort: Online

    Weiterlesen...

  • DTT-Vertiefungsseminar: „Terminologiearbeit – Projekte, Prozesse, Wissensordnungen, Daten-Engineering“

    Termine: 14./15., 21./22. und 29./30. November 2024 Ort: Online

    Weiterlesen...

  • DTT-Grundlagenseminar: „Terminologiearbeit – Grundlagen, Werkzeuge, Prozesse“

    Termin: Freitag, 27. September 2024, 9:00 - 16:30 Uhr Ort: LEONARDO KARLSRUHE, Ettlinger Straße 23, 67137 Karlsruhe

    Weiterlesen...

  • DTT-Webinar: „Neuronale Maschinelle Übersetzung: Möglichkeiten der Terminologieforcierung (am Beispiel von DeepL)“

    Termin: 27. Juni 2024, 14:00 - 15:00 Uhr Ort: Online

    Weiterlesen...

  • DTT-Webinar: „Terminologiearbeit und generative KI (am Beispiel von ChatGPT) – Prognose einer glücklichen Ehe“

    Termin: 13. Februar 2024, 10:00 - 11:30 Uhr Ort: Online

    Weiterlesen...