Feedback bitte an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!
Der Begriff der „artificial intelligence“ (dt. „Künstliche Intelligenz“, KI) entstand im Jahr 1956, auch wenn bereits früher in dieser Richtung geforscht wurde. Seine Definition ist schwierig und nicht abgeschlossen, zumal der grundlegende Begriff der Intelligenz nicht eindeutig geklärt ist. Typischerweise versteht man unter KI den Versuch, eine menschenähnliche Intelligenz nachzubilden, also Maschinen (Programme) zu entwickeln, die selbstständig Situationen erkennen und Probleme lösen können. Der Bereich des maschinellen Lernens ist hier von besonders großer Bedeutung.
Um diese Ziele zu erreichen, sind komplexe Algorithmen gefragt, wie z. B. beim gerade aktuellen Projekt von Google DeepMind, bei dem Google Software entwickelt, die in der Lage ist, selbstständig zu lernen, wie komplexe Fragen behandelt werden müssen, wodurch beispielsweise die Leistung von maschinellen Übersetzungssystemen deutlich verbessert wird.
Neben der maschinellen Intelligenz und ihren Lernprozessen spielt v. a. die Frage nach der Kommunikation zwischen Mensch und Maschine eine wichtige Rolle (siehe dazu auch Abbildung 1).
Abbildung 1: Mensch-Maschine-Kommunikation
Typische Anwendungen bzw. Werkzeuge, bei denen KI eine Rolle spielt, sind intelligente Assistenten oder Bots, die auf der Basis verschiedener Daten (z. B. annotierte Korpora, Ontologien, Linked Data) mit Menschen kommunizieren. Die Situationen, in denen diese Maschinen mit Menschen kommunizieren, sind teilweise strukturiert und geplant, teilweise jedoch auch spontan und damit schwer steuerbar. Die Ein- und Ausgabe der Daten erfolgt im Regelfall über natürliche Sprache (geschrieben oder gesprochen).1
Um die eingegebenen Daten, aber auch „Big Data“ zu verstehen, kommen verschiedene Analyse- und Verarbeitungsverfahren zum Einsatz, die sich gegenseitig nicht ausschließen, sondern eher ergänzen können:
Während statistische und mathematische Verfahren bei der Analyse großer Datenmengen sehr erfolgreich sind, sind sie bei der Analyse von Daten, die weniger häufig vorkommen, weniger tauglich. In der Statistik spricht man bei diesem relativ langen flachen Teil einer Häufigkeitsverteilungskurve vom „Long Tail“.
Der Ansatz, künstliche neuronale Netze einzusetzen, um Maschinen zu helfen, selbstständig aus Situationen zu lernen, ist vielversprechend, wie das aktuelle Beispiel „AlphaGo” zeigt, bei dem das von Google DeepMind entwickelte Programm in der Lage ist, einen Go-Spiel-Meister zu schlagen.
Die rein statistischen Methoden stoßen an ihre Grenzen und versagen insbesondere in Situationen, bei denen die Kommunikation spontan und frei erfolgt (Kontextbezug, Mehrdeutigkeit) oder bei denen die Datenmengen verhältnismäßig gering sind (Small Data). Hier werden linguistische und v. a. semantische Verfahren den Ausschlag geben.
Linguisten und Terminologen interessieren sich besonders für alle Aspekte von KI, die natürliche Sprache involvieren. Es geht dabei um die Extraktion von Informationen aus geschriebenen und/oder gesprochenen Texten (im Regelfall nicht nur ein-, sondern mehrsprachig) sowie um das Modellieren von Wissen mit Hilfe von Begriffen und Benennungen, um die Kommunikation zwischen Mensch und Programmen bzw. zwischen Programmen untereinander auf Basis natürlicher Sprache zu ermöglichen.
Innerhalb der linguistischen Herangehensweise berücksichtigen die morphologischen Verfahren auf der Basis der vorab stattfindenden Tokenisierung der Texte insbesondere Flexionsendungen, um eine Lemmatisierung vorzunehmen bzw. grammatische Informationen auszulesen. Bezieht man die Syntax mit ein, so werden formal-strukturelle Beziehungen innerhalb der Sätze analysiert, bis letztlich die Semantik die Berücksichtigung der Bedeutungen einbringt. Gerade hier zeigen sich oft Probleme, da Bedeutungen und damit menschliches Wissen schwer fassbar sind. Gleichzeitig aber bieten sich gute Ansätze, um terminologische Kenntnisse und Arbeitsweisen einzubinden, da hier mehrsprachige Terminologien bereits taxonomisch oder ontologisch aufbereitet werden und sich so in wissensbasierte Terminologien verwandeln könnten (vgl. Kapitel 3).
1 Bei der schriftlichen Texteingabe entfällt der zusätzliche Analyseschritt der Spracherkennung.
© 2017 DIT (Deutsches Institut für Terminologie e.V.)
Petra Drewer, François Massion, Donatella Pulitano
Termin: 27. bis 29. März 2025 Ort: Wormser Tagungszentrum in Worms
Termine: 14./15., 21./22. und 29./30. November 2024 Ort: Online
Termin: Freitag, 27. September 2024, 9:00 - 16:30 Uhr Ort: LEONARDO KARLSRUHE, Ettlinger Straße 23, 67137 Karlsruhe
Termin: 18. September 2024, 13:00 - 14:30 Uhr Ort: Online
Termin: 4. September 2024, 10:00 - 11:00 Uhr Ort: Online
Termin: 27. Juni 2024, 14:00 - 15:00 Uhr Ort: Online