Kontakt
Wenn Sie Fragen zum Projekt oder dessen Angeboten haben, wenden Sie sich sehr gerne an:
Webseite des Gesamtprojekts
Glossar zu Begriffen rund um KI
Algorithmus, Lernalgorithmus
In der Informatik ist ein Algorithmus eine genaue Berechnungsvorschrift zur Lösung einer Aufgabe. Ein Lernalgorithmus ist ein Algorithmus, der Beispieldaten (Lerndaten oder Trainingsdaten) erhält und ein Modell für die gesehenen Daten berechnet, das auf neue Beispieldaten angewendet werden kann.
Assistenzsysteme
Digitale Assistenzsysteme optimieren die Zusammenarbeit zwischen Mensch und Computer. Sie sind in zahlreichen Handlungsfeldern anzutreffen: vom Dokumentenmanagement im kaufmännischen Bereich, über Sprachassistenten, die Fragen beantworten oder Anweisungen entgegennehmen, bis hin zur Produktion und Montage, wo sie mit Methoden der Künstlichen Intelligenz den Menschen kontextabhängig unterstützen.
Autonome Systeme
Als autonome Systeme werden Geräte und Softwaresysteme bezeichnet, die ohne Steuerung durch den Menschen und ohne vorprogrammierte Abläufe selbstständig agieren und reagieren. Sie sind von automatisierten Systemen zu unterscheiden, die vorgegebene Handlungsabläufe ausführen, sie aber nicht selbstständig ändern können. Um situativ zu reagieren, müssen autonome Geräte Sensoren haben und Softwaresysteme digitale Datenströme beobachten. Das Verhalten wird meist durch Maschinelles Lernen antrainiert und kann laufend verbessert werden.
Basismodelle oder Foundation Models
Basismodelle sind große maschinelle Lernmodelle, die auf Basis einer großen Menge allgemeiner Daten trainiert wurden. Nach diesem Vortraining können die Modelle für eine Vielzahl spezifischer Aufgaben feinjustiert werden.
Ein bekanntes Beispiel für Foundation Models sind große Sprachmodelle oder Large Language Models (LLMs), die Milliarden von Parametern besitzen und komplexe NLP-Aufgaben wie Textklassifikation, Textgenerierung, Sprachübersetzung, Sentimentanalyse und Frage-Antwort-Systeme beherrschen. Neben der Verwendung in Sprachmodellen gibt es auch visuelle und multimodale Foundation Models, die z. B. aus Text Bilder erzeugen.
Bias
In Bezug auf künstliche Intelligenz bezeichnet Bias eine systematische Verzerrung in den Vorhersagen oder Entscheidungen eines KI-Modells. Dies kann auftreten, wenn die Trainingsdaten unzureichend oder nicht repräsentativ sind. Ein Modell mit Bias kann fehlerhafte oder ungerechte Ergebnisse liefern. Es ist von entscheidender Bedeutung, Bias in KI-Systemen zu identifizieren und zu reduzieren, um sicherzustellen, dass Anwendungen fair und ethisch verantwortungsbewusst sind.
Big Data
Eine große Menge von Daten, die aufgrund ihrer Größe, Komplexität und Geschwindigkeit mit herkömmlichen Methoden schwierig zu verarbeiten sind. Diese Daten können unterschiedliche Formate aufweisen – strukturiert, unstrukturiert oder halb-strukturiert – und stammen aus einer Vielzahl von Quellen wie sozialen Medien, Sensoren und Online-Transaktionen. Big Data wird oft in Verbindung mit KI verwendet, um Muster, Trends und Erkenntnisse aus den Daten zu extrahieren.
Chatbot
Ein Computerprogramm, das entwickelt wurde, um menschenähnliche Konversationen mit Benutzern über Text oder Sprache zu führen. Mithilfe von Machine-Learning-Methoden werden die Bots so trainiert, dass sie in der Lage sind, adäquat auf die Anforderungen der zukünftigen Bedienenden einzugehen. Chatbots werden oft in Kundenservice, Unterhaltung oder anderen Anwendungen eingesetzt.
ChatGPT
GPT steht für Generative Pretrained Transformer – generativer, also erzeugender, vortrainierter Transformator. ChatGPT ist ein leistungsfähiges Sprachmodell, das darauf ausgelegt ist, Benutzer in Dialogform zu interagieren. Es erzeugt kohärente und kontextuell relevante Antworten über mehrere Dialogschritte hinweg, was besonders nützlich ist, um Folgefragen zu beantworten. AutoGPT und BabyAGI sind Software-Systeme, die als KI-Agenten dienen und Aufgaben in natürlicher Sprache auf hohem Niveau automatisieren können. Sie nutzen umfangreiche Sprachmodelle wie ChatGPT, um komplexe Aufgaben in Teilprobleme zu zerlegen, die dann automatisch mit anderen Werkzeugen wie einem Taschenrechner oder einer Suchmaschine gelöst werden können.
Computer Vision
Ein Bereich der künstlichen Intelligenz, der es Maschinen ermöglicht, visuelle Informationen zu interpretieren und zu analysieren.
Data Mining
Unter Data Mining wird die Anwendung von Methoden der Statistik und des Maschinellen Lernens verstanden, um in vorhandenen Datenbeständen Muster, Trends oder Zusammenhänge aufzuspüren.
Datenschutz-Folgenabschätzung (DPIA)
Eine Bewertung ist immer dann erforderlich, wenn eine Verarbeitungstätigkeit, insbesondere eine, die den Einsatz neuer oder aufkommender Technologien beinhaltet, wahrscheinlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen mit sich bringt.
Deep Learning (DL) oder Tiefes Lernen
Deep Learning ist maschinelles Lernen in Künstlichen Neuronalen Netzen mit mehreren bis sehr vielen Schichten, die aus einer Vielzahl künstlicher Neuronen zusammengesetzt sind. Tiefes Lernen ist verantwortlich für die Erfolge in der Sprach- und Text-, Bild- und Videoverarbeitung.
Delusion
Im Kontext von KI bezeichnet “Delusion” eine falsche oder irreführende Vorstellung, die von einem KI-Modell erzeugt wird, z. B. wenn das Modell falsche Annahmen über die Welt trifft oder ungenaue Vorhersagen macht, s. auch ‚Halluzinieren‘.
Diffusionsmodelle oder Diffusion Models
Diffusionsmodelle können Daten erzeugen, die ihren Trainingsdaten ähneln. Als generative KI-Modelle sind sie in der Lage, Bilder auf der Grundlage eines Text-Prompts zu erzeugen. Dies wird erreicht, indem den Trainingsbildern Gaußsches Rauschen hinzugefügt wird und das Modell darauf trainiert wird, das Bild wieder zu entrauschen. Das trainierte Modell kann dann aus einem zufälligen Rauschen ein Bild erzeugen, das seinen Trainingsbildern ähnelt.
Diskriminative KI oder Discriminative AI
Diskriminative KI-Modelle lernen, Daten zu unterscheiden und zu klassifizieren. Im Gegensatz zu generativen KI-Modellen, die neue Daten erzeugen, ordnen diskriminative Modelle Eingabedaten ihnen bekannten Kategorien zu, z.B. Tierbilder in Bilder von Hunden oder Katzen.
DSFA (Datenschutz‑Folgenabschätzung)
Die Datenschutz‑Folgenabschätzung (DSFA) ist ein Verfahren, das Risiken im Zusammenhang mit der Verarbeitung personenbezogener Daten identifiziert und bewertet. Insbesondere bei digitalen Diensten und KI-Anwendungen dient sie dazu, potenzielle Datenschutzrisiken frühzeitig zu erkennen und geeignete Schutzmaßnahmen umzusetzen.
Erklärbare KI oder Explainable AI
Black-Box-Modelle, wie insbesondere die tiefen Künstlichen Neuronalen Netze, sind für Menschen nicht nachvollziehbar. Die Erklärbare KI sucht nach Möglichkeiten, die versteckte Logik oder die einzelnen Ausgaben besser nachvollziehbar oder erklärbar zu machen.
Ethik in KI
Ein Bereich, der sich mit den ethischen Fragen und Herausforderungen befasst, die durch den Einsatz von KI-Technologien entstehen können, wie Datenschutz, Privatsphäre, Gerechtigkeit und soziale Auswirkungen. Die Berücksichtigung ethischer Grundsätze ist entscheidend, um den verantwortungsvollen Einsatz von KI zu gewährleisten. Das Forschungsfeld der KI-Ethik beschäftigt sich mit der Entwicklung und Identifizierung von gesellschaftlich akzeptierten Werten, Prinzipien und Techniken als moralische Leitlinien für eine verantwortungsvolle Entwicklung und Nutzung von KI-Systemen. Zu den Teilbereichen der KI-Ethik gehören unter anderem die Maschinenethik, Datenethik sowie das moralische Verhalten von Menschen bei der Gestaltung, Programmierung, Nutzung und Behandlung von KI.
Generative KI oder Generative AI
Generative KI-Modelle werden eingesetzt, um neue Daten zu erzeugen, die ähnliche statistische Eigenschaften wie ein gegebener Datensatz haben. So können z.B. Text, Bilder, Audio, Video, Programmcode, 3D-Modelle oder Simulationen erzeugt werden, die den Anweisungen des Nutzenden folgen.
Große Sprachmodelle oder Large Language Models (LLMs)
Große Sprachmodelle sind Basismodelle oder Foundation Models , die für die Verarbeitung natürlicher Sprache mit großen Mengen von Textdaten trainiert wurden. Die Modelle lernen, Texte fortzusetzen, indem sie statistische Beziehungen zwischen Wörtern herstellen, und damit Wissen über Syntax, Semantik und Ontologie der Sprache, aufbauen. Nach diesem Vortraining können die Modelle für ihren spezifischen Einsatz, z.B. als Chatbot, feinjustiert werden. Ihre Transformer-Architektur ermöglicht die effiziente Verarbeitung großer Datenmengen und die Berücksichtigung entfernter Abhängigkeiten in Daten.
Halluzinieren
Generative KI verwendet umfangreiche Datensätze, um Muster zu erkennen und neue Inhalte zu erstellen, sei es in Bild-, Audio- oder Textform. Diese Muster dienen als Grundlage für die Generierung neuer Antworten, die der vorherigen Datenbasis ähneln. Jedoch können trotz der Plausibilität der generierten Inhalte Fehler auftreten, die zu sogenannten “Halluzinationen” führen. Diese Ungenauigkeiten resultieren aus der Qualität der Trainingsdaten und können zu irreführenden Ergebnissen führen. Es ist wichtig zu betonen, dass die Qualität generativer KI stark von der Qualität der Trainingsdaten abhängt. Fehlerhafte oder irreführende Daten können zu ungenauen oder fehlerhaften Ergebnissen führen. Daher ist ein verantwortungsbewusster Umgang mit generativer KI unerlässlich, indem Datenquellen sorgfältig geprüft und die Ergebnisse kritisch hinterfragt werden, um potenzielle Fehlinformationen zu vermeiden.
HRKI‑Systeme (Hochrisiko‑KI‑Systeme)
HRKI‑Systeme bezeichnen KI-Anwendungen, deren Einsatz ein besonders hohes Risiko hinsichtlich Gesundheit, Sicherheit oder der Beeinträchtigung fundamentaler Rechte mit sich bringen kann. Insbesondere im Kontext von Bildungsanwendungen wird die besondere Sorgfaltspflicht betont, um negative Auswirkungen zu vermeiden.
Hybride KI
Hybride KI kombiniert datenbasiertes Maschinelles Lernen, Wissensrepräsentation und logisches Schließen. Wissen und die jeweiligen Schlussfolgerungen werden direkt in den Lernprozess eingebracht, um beispielsweise die menschliche Fähigkeit nachzubilden, Bedeutungen aus dem Kontext heraus korrekt zu verstehen und das KI-System insgesamt robuster auszugestalten.
KI-Systeme mit allgemeinem Verwendungszweck (GPAI (General Purpose AI))
KI-Systeme mit allgemeinem Verwendungszweck bezieht sich auf KI‑Modelle und -Systeme mit allgemeinem Verwendungszweck, die flexibel in einer Vielzahl von Anwendungen eingesetzt werden können – von der Texterstellung bis zur Bild- und Videoverarbeitung. Der regulatorische Rahmen prüft dabei, inwiefern diese Systeme potenziell systemische Risiken aufweisen.
KI‑VO (AI‑Act)
Die KI‑VO – auch bekannt als AI‑Act – ist eine EU-Verordnung, die den sicheren und verantwortungsvollen Einsatz von Künstlicher Intelligenz regelt. Ziel ist es, Innovationen zu fördern und gleichzeitig hohe Schutzstandards für Gesundheit, Sicherheit und Grundrechte sicherzustellen.
Kognitive Maschinen, kognitive Systeme
Kognitive Maschinen oder Systeme sind alternative Begriffe für künstliche intelligente Systeme oder auch Künstliche Intelligenz. Sie zeichnen sich durch Fähigkeiten des Lernens und Schlussfolgerns sowie der Sprachverarbeitung, Bildverarbeitung und Interaktion mit dem Nutzer aus.
Konversationelle KI
KI-Systeme, die darauf ausgelegt sind, natürliche Sprache zu verstehen und zu erzeugen, um Konversationen mit Benutzer*innen zu führen. Konversationelle KI umfasst Chatbots, Sprachassistenten und andere Anwendungen, die natürliche Sprachverarbeitungstechnologien verwenden.
Künstliche Intelligenz (KI) oder Artificial Intelligence (AI)
Künstliche Intelligenz ist ein Teilgebiet der Informatik, das sich mit der Automatisierung von intelligentem Verhalten befasst. Dabei ist weder festgelegt, was »intelligent« bedeutet, noch welche Technik zum Einsatz kommt. Eine der Grundlagen der modernen Künstlichen Intelligenz ist das Maschinelle Lernen. Weitere wichtige Methoden sind logisches Schließen auf symbolischem Wissen, Wissensrepräsentation oder Planungsverfahren. In Fachkreisen wird zwischen Starker KI und Schwacher KI unterschieden.
Künstliche Neuronale Netze (KNN)
Künstliche Neuronale Netze sind Modelle des Maschinellen Lernens, deren Vorbild die natürlichen neuronalen Netze des Gehirns sind. Sie bestehen aus vielen in Software realisierten Schichten von Knoten, die als künstliche Neuronen bezeichnet werden. Mithilfe von Beispielen verändert ein Lernalgorithmus die Gewichte, Zahlenwerte an den Verbindungen zwischen den Knoten, solange, bis die Ergebnisse für die Aufgabe gut genug sind. Die Anzahl der Knoten, Schichten und ihre Verknüpfung untereinander wirkt sich maßgeblich auf die Lösungskompetenz des Modells aus.
Natürliche Sprachverarbeitung (NLP)
Eine Technologie, die es Computern ermöglicht, menschliche Sprache zu verstehen und auf sie zu reagieren.
Maschinelles Lernen oder Machine Learning (ML)
Maschinelles Lernen bezweckt die Generierung von Wissen aus Erfahrungswerten, indem Lernalgorithmen aus Beispielen ein komplexes Modell entwickeln. Das Modell kann anschließend auf neue, potenziell unbekannte Daten derselben Art angewendet werden. Damit kommt das Maschinelle Lernen ohne manuelle Wissenseingabe oder explizite Programmierung eines Lösungswegs aus.
Maschinelle Sprachverarbeitung oder Natural Language Processing (NLP)
Maschinelle Sprachverarbeitung umfasst Techniken zur Erkennung, Interpretation und Erzeugung von natürlicher Sprache in Wort und Schrift. Dazu gehören die Vertextung gesprochener Sprache, Stimmungserkennung, Informationsextraktion aus Texten, maschinelle Übersetzung und das Führen von Gesprächen.
Modell
Ein Modell ist eine Abstraktion der Wirklichkeit. Im Maschinellen Lernen erzeugt ein Lernalgorithmus ein Modell, das die eingespeisten Daten generalisiert. Das Modell kann anschließend auch auf neue Daten angewandt werden.
Multimodale KI
Während unimodale KI-Systeme nur einen Datentyp verarbeiten oder erzeugen können, kann multimodale KI mit verschiedenen Datentypen wie Text, Bild und Audio umgehen. Multimodale Modelle sind daher flexibler, da sie mit unterschiedlichen Datentypen trainiert werden.
Neuronales Netzwerk
Ein neuronales Netzwerk ist ein computerbasiertes Modell, das sich vom menschlichen Gehirn inspirieren lässt. Es besteht aus zahlreichen künstlichen Neuronen, die in Schichten angeordnet und miteinander verbunden sind. Jedes Neuron empfängt Informationen, verarbeitet sie und leitet das Ergebnis an andere Neuronen weiter, bis ein bestimmtes Ziel erreicht ist. Neuronale Netzwerke werden in verschiedenen künstlichen Intelligenz-Techniken wie Deep Learning eingesetzt, um komplexe Aufgaben wie Mustererkennung, Klassifikation und Vorhersage zu bewältigen.
Open-Source Modelle
KI-Modelle oder -Algorithmen, deren Quellcode öffentlich zugänglich ist und von der Gemeinschaft frei verwendet, modifiziert und verbessert werden kann. Open-Source-Modelle fördern die Zusammenarbeit und den Wissensaustausch in der KI-Forschung und -Entwicklung.
Personenbezogene Daten
Alle Informationen, die sich auf eine identifizierte oder identifizierbare lebende Person beziehen, einschließlich verschiedener Datenpunkte, die in ihrer Kombination zur Identifizierung einer bestimmten Person führen können.
Prädiktive Analytik
Prädiktive Analytik ist ein Bereich der künstlichen Intelligenz, der sich darauf konzentriert, zukünftige Ereignisse oder Trends vorherzusagen, indem er vorhandene Daten und spezielle Techniken nutzt. Durch die Analyse vergangener Daten identifiziert es Muster und trifft dann Prognosen über kommende Entwicklungen. Dieser Ansatz findet in verschiedenen Bereichen wie Marketing, Finanzen, Gesundheitswesen und Logistik Anwendung und ermöglicht es, intelligente Entscheidungen zu treffen und Risiken zu minimieren.
Prompt
In der künstlichen Intelligenz bezieht sich ein “Prompt” auf einen Text oder eine Anweisung, die einem Sprachmodell gegeben wird, um eine spezifische Aufgabe zu erfüllen oder eine Antwort zu generieren. Dies kann eine Frage, eine Beschreibung oder ein Satz sein. Das Modell wird daraufhin angewiesen, den fehlenden Teil des Textes zu vervollständigen. Die Qualität und Klarheit eines Prompts haben oft einen direkten Einfluss darauf, wie präzise und relevant die generierte Antwort des Modells ist.
Reinforcement Learning oder Bestärkendes Lernen
Beim bestärkenden Lernen erhält der Lernalgorithmus gelegentliches Feedback für Interaktionen mit der Umwelt und lernt, die Erfolgsaussichten der einzelnen Aktionen in den verschiedenen Situationen besser einzuschätzen. Reinforcement Learning wird gern für Autonome Systeme und Spiele eingesetzt.
Roboter
Als Roboter werden Maschinen oder Geräte bezeichnet, die darauf abzielen, bestimmte physische und kommunikative Aufgaben des Menschen zu übernehmen. Typische Beispiele sind Service- und Industrieroboter. Die Autonomie von Robotersystemen steigt in dem Maße, wie sie selbstständig durch Maschinelles Lernens komplexe Aufgaben lösen können. Ein Beispiel hierfür sind vollautonome Fahrzeuge.
Schwache KI
Schwache KI setzt KI-Methoden zur Lösung eng umrissener Aufgaben ein. Während sie in einzelnen Bereichen, wie z.B. der Bildanalyse, menschliche Fähigkeiten bereits übertreffen kann, erreicht Schwache KI bei weiter gefassten Aufgaben im größeren Kontext oder bei Aufgaben, die Weltwissen erfordern, bei weitem nicht das gleiche Niveau. Alle derzeitigen KI-Lösungen sind Beispiele Schwacher KI.
Security- and Safety-by-Design
Safety-by-Design und Security-by-Design sind Prinzipien, die darauf abzielen, dass sowohl bei der Entwicklung von Software als auch bei der Hardware von (KI-)Systemen von Anfang an Sicherheitsanforderungen berücksichtigt werden. Dadurch sollen potenzielle Schwachstellen und Angriffsmöglichkeiten vermieden werden. Während Security-by-Design auf die Verhinderung von kriminellen Angriffen abzielt, konzentriert sich Safety-by-Design darauf, Unfälle und andere sicherheitsrelevante Risiken zu vermeiden.
Starke KI oder Artificial General Intelligence
Starke KI steht für die Vision, mit KI-Techniken menschliche Intelligenz in vollem Umfang und außerhalb einzelner, eng definierter Handlungsfelder nachzubilden. Starke KI findet man bisher nur in Science Fiction. Seit Künstliche Intelligenz in den 1950er Jahren entstand, gab es Prognosen, dass eine starke KI in wenigen Jahrzehnten realisierbar wird.
Stochastischer Papagei
Der Begriff “stochastischer Papagei” beschreibt eine Kritik an großen Sprachmodellen und verweist auf die Art und Weise, wie sie Texte generieren: Sie imitieren menschliche Sprache, indem sie auf Wahrscheinlichkeiten beruhen und Muster in riesigen Datensätzen erkennen, ohne dabei ein echtes Verständnis für die Inhalte zu haben. Die Analogie zeigt, dass solche Modelle, ähnlich wie ein Papagei, sinnvolle und überzeugende Sätze wiedergeben können, aber keine tatsächliche Bedeutung oder kontextuelles Verständnis besitzen. Der Begriff hebt damit die Grenzen rein statistischer Modelle in der semantischen Tiefe und im kritischen Denken hervor.
Superalignment
Ein Konzept in der KI-Ethik, das darauf abzielt, KI-Systeme so zu gestalten, dass sie nicht nur die beabsichtigten Ziele erreichen, sondern auch im Einklang mit den Werten, Zielen und Präferenzen der Menschen handeln. Superalignment fordert eine umfassende Ausrichtung von KI-Systemen auf die menschlichen Interessen und Werte.
Token
Eine digitale Einheit, die als Repräsentation eines Vermögenswerts, einer Einheit von Wert oder eines Zugriffsrechts auf eine Ressource fungiert. In Bezug auf KI könnten Token verwendet werden, um Zugriff auf KI-Dienste, Daten oder Anwendungen zu erhalten, oder als Belohnung für die Teilnahme an KI-gestützten Plattformen – ein Token kann beispielsweise einer Wortsilbe entsprechen.
Transformer
Ein Transformer ist eine Deep-Learning-Architektur, die einen Aufmerksamkeitsmechanismus (Attention Mechanism) verwendet, um Beziehungen zwischen Wörtern abzubilden. Aufgrund der effizienten Verarbeitung großer Datenmengen und der Berücksichtigung entfernter Abhängigkeiten in Daten werden Transformer-Modelle in der maschinellen Sprachverarbeitung zum Verstehen, Übersetzen oder Generieren von Texten, aber auch in der Bildverarbeitung eingesetzt. Am bekanntesten sind Transformer für ihren Einsatz in großen Sprachmodellen.
Trolley-Problem
Das klassische Trolley-Problem ist besonders relevant im Bereich des autonomen Fahrens. Dabei handelt es sich um ein philosophisches Gedankenexperiment, das eine Dilemmasituation darstellt, in der beide Handlungsoptionen zu unerwünschten Ergebnissen führen. In diesem Szenario rast eine führerlose Straßenbahn unaufhaltsam auf fünf am Gleis festgekettete Menschen zu. Durch das aktive Umstellen einer Weiche könnte die Bahn auf ein anderes Gleis umgeleitet werden, an dem jedoch eine Person angekettet ist. Die Entscheidung, ob die Weiche umgelegt werden soll, stellt die Beteiligten vor ein moralisches Dilemma, das ethische Fragen zur Abwägung von Handlungen und ihren Konsequenzen aufwirft. Das Ziel dieses Gedankenexperiments ist es, zum Nachdenken über komplexe ethische Entscheidungen und die Moral hinter solchen Situationen anzuregen. Dieses Gedankenexperiment wird für die KI immer wieder als moralischer Kompass eingesetzt.
Turing-Test
Der Turing-Test wurde vom britischen Mathematiker Alan Turing entworfen, um die Intelligenz von künstlichen Systemen zu bewerten. Kann ein Mensch, der zugleich mit einem künstlichen System und mit einem menschlichen Gesprächspartner kommuniziert, letztlich nicht bestimmen, bei welchem Dialogpartner es sich um den Menschen handelt, gilt das System als intelligent. Heutzutage bezeichnet man solche Systeme als Chatbots.
Überwachtes Lernen oder Supervised Learning
Beim überwachten Lernen bestehen die Trainingsdaten aus Beispielen mit Ein- und Ausgabe. Das Modell soll eine Funktion erlernen, um auch neue Beispiele gut vorherzusagen. Um die Qualität des Modells zu bestimmen, trainiert man dieses nur mit einem Teil der verfügbaren Daten und testet das fertige Modell mit den verbleibenden.
Verteilte KI oder Distributed AI
Beim Maschinellen Lernen in der Cloud befindet sich das Modell nur in der Cloud. Um es zu trainieren und anzuwenden, müssen die Endgeräte alle Rohdaten zum Server schicken. Bei verteilter KI bleiben die Modelle in den Endgeräten. Statt der Rohdaten werden die Modelle in die Cloud geladen, dort miteinander kombiniert und wieder verteilt. So profitiert jedes Endgerät von dem Training auf allen anderen Endgeräten. Das datenschutzfreundliche Konzept des Edge Computing geht einher mit Einsparungen bei Rechenzeiten, Kommunikationsaufwand und -kosten sowie einer Erhöhung der Sicherheit gegenüber Cyberangriffen.
Vertrauenswürdige KI oder Trustworthy AI
Nur vertrauenswürdige KI-Anwendungen garantieren IT-Sicherheit, Kontrolle, Rechtssicherheit, Verantwortlichkeit und Transparenz. Aus diesem Grund werden unternehmensintern, auf gesellschaftlicher und politischer Ebene Leitlinien für eine ethische Gestaltung von Künstlicher Intelligenz erarbeitet. Diese fokussieren beispielsweise die Dimensionen Ethik und Recht, Fairness, Autonomie und Kontrolle, Transparenz, Verlässlichkeit, Sicherheit und Privatsphäre.
Wissensrepräsentation
Um Wissen formal abzubilden, werden unterschiedliche Methoden der Wissensrepräsentation angewandt, z.B. Ontologien, Klassen oder semantische Netze oder Regelsysteme. Die Expertensysteme der 1980er Jahre bestanden aus solchen Wissensbasen. Heute benutzt man Regelsysteme gern zur Programmierung von Chatbots.
Zero-shot Learning
Eine Methode des maschinellen Lernens, bei der ein Modell in der Lage ist, Aufgaben zu bewältigen, ohne dass es zuvor explizit auf diese Aufgaben trainiert wurde. Es nutzt vorhandenes Wissen, um neue, unbekannte Aufgaben zu lösen.
Zertifizierung
Aktuelle Bestrebungen zur Entwicklung eines Prüfkatalogs für KI-Anwendungen zielen darauf ab, eine Zertifizierung von KI-Anwendungen zu ermöglichen. Die so gesetzten Standards sollen die Qualität von KI-Anwendungen differenziert beurteilbar machen, zur Transparenz im Markt beitragen und die Akzeptanz in der Anwendung fördern.