Gesamten Artikel als PDF herunterladen 
 Feedback bitte an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein! 



<<
    Inhalt     >> 


 

1.4      Künstliche Intelligenz

Der Begriff der „artificial intelligence“ (dt. „Künstliche Intelligenz“, KI) entstand im Jahr 1956, auch wenn bereits früher in dieser Richtung geforscht wurde. Seine Definition ist schwierig und nicht abgeschlossen, zumal der grundlegende Begriff der Intelligenz nicht eindeutig geklärt ist. Typischerweise versteht man unter KI den Versuch, eine menschenähnliche Intelligenz nachzubilden, also Maschinen (Programme) zu entwickeln, die selbstständig Situationen erkennen und Probleme lösen können. Der Bereich des maschinellen Lernens ist hier von besonders großer Bedeutung.

Um diese Ziele zu erreichen, sind komplexe Algorithmen gefragt, wie z. B. beim gerade aktuellen Projekt von Google DeepMind, bei dem Google Software entwickelt, die in der Lage ist, selbstständig zu lernen, wie komplexe Fragen behandelt werden müssen, wodurch beispielsweise die Leistung von maschinellen Übersetzungssystemen deutlich verbessert wird.

Neben der maschinellen Intelligenz und ihren Lernprozessen spielt v. a. die Frage nach der Kommunikation zwischen Mensch und Maschine eine wichtige Rolle (siehe dazu auch Abbildung 1).

Abbildung 1
Abbildung 1: Mensch-Maschine-Kommunikation

Typische Anwendungen bzw. Werkzeuge, bei denen KI eine Rolle spielt, sind intelligente Assistenten oder Bots, die auf der Basis verschiedener Daten (z. B. annotierte Korpora, Ontologien, Linked Data) mit Menschen kommunizieren. Die Situationen, in denen diese Maschinen mit Menschen kommunizieren, sind teilweise strukturiert und geplant, teilweise jedoch auch spontan und damit schwer steuerbar. Die Ein- und Ausgabe der Daten erfolgt im Regelfall über natürliche Sprache (geschrieben oder gesprochen).1

Um die eingegebenen Daten, aber auch „Big Data“ zu verstehen, kommen verschiedene Analyse- und Verarbeitungsverfahren zum Einsatz, die sich gegenseitig nicht ausschließen, sondern eher ergänzen können:

  • statistische und mathematische Verfahren
  • morphologische und syntaktische Verfahren (Natural Language Processing, NLP)
  • semantische Verfahren

Während statistische und mathematische Verfahren bei der Analyse großer Datenmengen sehr erfolgreich sind, sind sie bei der Analyse von Daten, die weniger häufig vorkommen, weniger tauglich. In der Statistik spricht man bei diesem relativ langen flachen Teil einer Häufigkeitsverteilungskurve vom „Long Tail“.

Der Ansatz, künstliche neuronale Netze einzusetzen, um Maschinen zu helfen, selbstständig aus Situationen zu lernen, ist vielversprechend, wie das aktuelle Beispiel „AlphaGo” zeigt, bei dem das von Google DeepMind entwickelte Programm in der Lage ist, einen Go-Spiel-Meister zu schlagen.

Die rein statistischen Methoden stoßen an ihre Grenzen und versagen insbesondere in Situationen, bei denen die Kommunikation spontan und frei erfolgt (Kontextbezug, Mehrdeutigkeit) oder bei denen die Datenmengen verhältnismäßig gering sind (Small Data). Hier werden linguistische und v. a. semantische Verfahren den Ausschlag geben.

Linguisten und Terminologen interessieren sich besonders für alle Aspekte von KI, die natürliche Sprache involvieren. Es geht dabei um die Extraktion von Informationen aus geschriebenen und/oder gesprochenen Texten (im Regelfall nicht nur ein-, sondern mehrsprachig) sowie um das Modellieren von Wissen mit Hilfe von Begriffen und Benennungen, um die Kommunikation zwischen Mensch und Programmen bzw. zwischen Programmen untereinander auf Basis natürlicher Sprache zu ermöglichen.

Innerhalb der linguistischen Herangehensweise berücksichtigen die morphologischen Verfahren auf der Basis der vorab stattfindenden Tokenisierung der Texte insbesondere Flexionsendungen, um eine Lemmatisierung vorzunehmen bzw. grammatische Informationen auszulesen. Bezieht man die Syntax mit ein, so werden formal-strukturelle Beziehungen innerhalb der Sätze analysiert, bis letztlich die Semantik die Berücksichtigung der Bedeutungen einbringt. Gerade hier zeigen sich oft Probleme, da Bedeutungen und damit menschliches Wissen schwer fassbar sind. Gleichzeitig aber bieten sich gute Ansätze, um terminologische Kenntnisse und Arbeitsweisen einzubinden, da hier mehrsprachige Terminologien bereits taxonomisch oder ontologisch aufbereitet werden und sich so in wissensbasierte Terminologien verwandeln könnten (vgl. Kapitel 3).



1 Bei der schriftlichen Texteingabe entfällt der zusätzliche Analyseschritt der Spracherkennung.

 



<<     Inhalt     >> 



© 2017 DIT (Deutsches Institut für Terminologie e.V.)
Petra Drewer, François Massion, Donatella Pulitano


 

Aktuelles

  • 30 Jahre Deutscher Terminologie-Tag e.V.

    Wir laden alle Mitglieder herzlich zu einem Umtrunk und Häppchen nach unserer JMV ein. Termin: 28. April 2017 Ort: Mannheim

    Weiterlesen...

  • DTT-Webinar: „TermBase eXchange (TBX) für Einsteiger“

    Termin: 18. Mai 2017, 10:00 - 11:00 Uhr Ort: Online

    Weiterlesen...

  • DTT-Webinar: „TermWeb“

    Termin: 15. Mai 2017, 10:00 - 11:00 Uhr Ort: Online

    Weiterlesen...

  • DTT-Vertiefungsseminar: „Terminologiearbeit – Projekte, Prozesse, Datenaustausch“

    Termin: Freitag, 28. April 2017, 9:00 - 17:30 Uhr und Samstag, 29. April 2017, 9:00 - 17:30 Uhr Ort: Mannheim

    Weiterlesen...

edition: Neuste Ausgabe

  • edition 2/2016

    Inhalt Emoji als universelle Sprache? Eine technische und terminologische Betrachtung Autor: Tamara Arndt Emoji are heavily used in nowaday’s electronic communications all over the world. This article approaches the question whether emoji can be viewed...

    Weiterlesen: edition 2/2016

Fortbildung

  • Termine | Seminare | Webinare

    Symposion, Seminar oder Webinar? Hier finden Sie alle kommenden Termine des DTT und ausgewählte Veranstaltungen unserer Partnerverbände im Überblick. Wir freuen uns auf Ihre Teilnahme!

    Weiterlesen: Termine |...