Gesamten Artikel als PDF herunterladen 
 Feedback bitte an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein! 



<<
    Inhalt     >> 


 

1.4      Künstliche Intelligenz

Der Begriff der „artificial intelligence“ (dt. „Künstliche Intelligenz“, KI) entstand im Jahr 1956, auch wenn bereits früher in dieser Richtung geforscht wurde. Seine Definition ist schwierig und nicht abgeschlossen, zumal der grundlegende Begriff der Intelligenz nicht eindeutig geklärt ist. Typischerweise versteht man unter KI den Versuch, eine menschenähnliche Intelligenz nachzubilden, also Maschinen (Programme) zu entwickeln, die selbstständig Situationen erkennen und Probleme lösen können. Der Bereich des maschinellen Lernens ist hier von besonders großer Bedeutung.

Um diese Ziele zu erreichen, sind komplexe Algorithmen gefragt, wie z. B. beim gerade aktuellen Projekt von Google DeepMind, bei dem Google Software entwickelt, die in der Lage ist, selbstständig zu lernen, wie komplexe Fragen behandelt werden müssen, wodurch beispielsweise die Leistung von maschinellen Übersetzungssystemen deutlich verbessert wird.

Neben der maschinellen Intelligenz und ihren Lernprozessen spielt v. a. die Frage nach der Kommunikation zwischen Mensch und Maschine eine wichtige Rolle (siehe dazu auch Abbildung 1).

Abbildung 1
Abbildung 1: Mensch-Maschine-Kommunikation

Typische Anwendungen bzw. Werkzeuge, bei denen KI eine Rolle spielt, sind intelligente Assistenten oder Bots, die auf der Basis verschiedener Daten (z. B. annotierte Korpora, Ontologien, Linked Data) mit Menschen kommunizieren. Die Situationen, in denen diese Maschinen mit Menschen kommunizieren, sind teilweise strukturiert und geplant, teilweise jedoch auch spontan und damit schwer steuerbar. Die Ein- und Ausgabe der Daten erfolgt im Regelfall über natürliche Sprache (geschrieben oder gesprochen).1

Um die eingegebenen Daten, aber auch „Big Data“ zu verstehen, kommen verschiedene Analyse- und Verarbeitungsverfahren zum Einsatz, die sich gegenseitig nicht ausschließen, sondern eher ergänzen können:

  • statistische und mathematische Verfahren
  • morphologische und syntaktische Verfahren (Natural Language Processing, NLP)
  • semantische Verfahren

Während statistische und mathematische Verfahren bei der Analyse großer Datenmengen sehr erfolgreich sind, sind sie bei der Analyse von Daten, die weniger häufig vorkommen, weniger tauglich. In der Statistik spricht man bei diesem relativ langen flachen Teil einer Häufigkeitsverteilungskurve vom „Long Tail“.

Der Ansatz, künstliche neuronale Netze einzusetzen, um Maschinen zu helfen, selbstständig aus Situationen zu lernen, ist vielversprechend, wie das aktuelle Beispiel „AlphaGo” zeigt, bei dem das von Google DeepMind entwickelte Programm in der Lage ist, einen Go-Spiel-Meister zu schlagen.

Die rein statistischen Methoden stoßen an ihre Grenzen und versagen insbesondere in Situationen, bei denen die Kommunikation spontan und frei erfolgt (Kontextbezug, Mehrdeutigkeit) oder bei denen die Datenmengen verhältnismäßig gering sind (Small Data). Hier werden linguistische und v. a. semantische Verfahren den Ausschlag geben.

Linguisten und Terminologen interessieren sich besonders für alle Aspekte von KI, die natürliche Sprache involvieren. Es geht dabei um die Extraktion von Informationen aus geschriebenen und/oder gesprochenen Texten (im Regelfall nicht nur ein-, sondern mehrsprachig) sowie um das Modellieren von Wissen mit Hilfe von Begriffen und Benennungen, um die Kommunikation zwischen Mensch und Programmen bzw. zwischen Programmen untereinander auf Basis natürlicher Sprache zu ermöglichen.

Innerhalb der linguistischen Herangehensweise berücksichtigen die morphologischen Verfahren auf der Basis der vorab stattfindenden Tokenisierung der Texte insbesondere Flexionsendungen, um eine Lemmatisierung vorzunehmen bzw. grammatische Informationen auszulesen. Bezieht man die Syntax mit ein, so werden formal-strukturelle Beziehungen innerhalb der Sätze analysiert, bis letztlich die Semantik die Berücksichtigung der Bedeutungen einbringt. Gerade hier zeigen sich oft Probleme, da Bedeutungen und damit menschliches Wissen schwer fassbar sind. Gleichzeitig aber bieten sich gute Ansätze, um terminologische Kenntnisse und Arbeitsweisen einzubinden, da hier mehrsprachige Terminologien bereits taxonomisch oder ontologisch aufbereitet werden und sich so in wissensbasierte Terminologien verwandeln könnten (vgl. Kapitel 3).



1 Bei der schriftlichen Texteingabe entfällt der zusätzliche Analyseschritt der Spracherkennung.

 



<<     Inhalt     >> 



© 2017 DIT (Deutsches Institut für Terminologie e.V.)
Petra Drewer, François Massion, Donatella Pulitano


 

Aktuelles

  • DTT-Vertiefungsseminar: „Terminologiearbeit – Projekte, Prozesse, Wissensordnungen, Daten-Engineering“

    Termine: 14./15., 21./22. und 29./30. November 2024 Ort: Online

    Weiterlesen...

  • DTT-Grundlagenseminar: „Terminologiearbeit – Grundlagen, Werkzeuge, Prozesse“

    Termin: Freitag, 27. September 2024, 9:00 - 16:30 Uhr Ort: LEONARDO KARLSRUHE, Ettlinger Straße 23, 67137 Karlsruhe

    Weiterlesen...

  • DTT-Webinar: „Neuronale Maschinelle Übersetzung: Möglichkeiten der Terminologieforcierung (am Beispiel von DeepL)“

    Termin: 23. Mai 2024, 14:00 - 15:00 Uhr Ort: Online

    Weiterlesen...

  • DTT-Webinar: „Terminologiearbeit und generative KI (am Beispiel von ChatGPT) – Prognose einer glücklichen Ehe“

    Termin: 13. Februar 2024, 10:00 - 11:30 Uhr Ort: Online

    Weiterlesen...

  • DTT-Förderpreis 2024/2025: Einreichungen ab sofort möglich

    Frei nach dem Motto "nach dem Spiel ist vor dem Spiel" geht es wieder in die nächste Runde. Auch 2024/2025 vergeben wir unseren DTT-Förderpreis für...

    Weiterlesen...

  • DTT-Vertiefungsseminar: „Terminologiearbeit – Projekte, Prozesse, Wissensordnungen, Daten-Engineering“

    Termine: 9./10., 23./24. November und 1./2. Dezember 2023 Ort: Online

    Weiterlesen...