Dieses Glossar beschreibt die wichtigsten Fachbegriffe im Kontext von Artificial Intelligence und generativen Chatbots. Die Beschreibungen sind nicht abschliessend und es ist möglich, dass die Begriffe in einem anderen Kontext auch eine abweichende Bedeutung haben. Für ausführlichere Auskünfte zu den Begriffen kannst du dich an AIX wenden.
API(-Key)
Eine API (Application Programming Interface) ermöglicht die Kommunikation zwischen verschiedenen Softwareanwendungen. Ein API-Key ist ein eindeutiger Code, der zur Authentifizierung und Autorisierung bei der Nutzung einer API dient. Im Kontext von AI-Chatbots wird ein API-Key oft verwendet, um auf Modelle wie GPT zuzugreifen und deren Funktionen in eigene Anwendungen zu integrieren. Dies ermöglicht die nahtlose Einbindung von AI-Funktionen in Websites, Apps oder andere Systeme.
Artificial Intelligence (AI)
Artificial Intelligence, oder AI, bezeichnet die Fähigkeit von Maschinen, menschenähnliche Intelligenz zu zeigen. Dies umfasst Fähigkeiten wie Lernen, Problemlösen, Sprachverständnis und Entscheidungsfindung. AI-Systeme können auf Basis von Daten trainiert werden und werden in Bereichen wie Medizin, Automobilindustrie und Unterhaltung eingesetzt. Sie bildet die Grundlage für Technologien wie Machine Learning, Deep Learning und generative Chatbots.
Bias in AI
Bias in AI bezeichnet Verzerrungen oder Ungleichgewichte in Systemen mit Künstlicher Intelligenz, die oft durch unausgewogene oder fehlerhafte Trainingsdaten entstehen. Solche Verzerrungen können zu diskriminierenden oder unfairen Entscheidungen führen, insbesondere in sensiblen Bereichen wie Personalwesen, Kreditvergabe oder Justiz. Daher sind Methoden zur Bias-Erkennung und -Reduzierung entscheidend, um faire und ethische AI-Systeme zu entwickeln und den gesellschaftlichen Nutzen zu maximieren.
Characters
Im Kontext von AI und Chatbots bezieht sich der Begriff „Characters“ auf die Zeichen, aus denen Texte bestehen. Dies umfasst Buchstaben, Zahlen, Symbole und Leerzeichen. Bei der Textgenerierung ist die Zeichenanzahl oft ein limitierender Faktor, da viele AI-Modelle eine maximale Zeichenbegrenzung pro Anfrage haben. Die effiziente Nutzung von Zeichen ist daher wichtig, um präzise und kontextrelevante Antworten zu erhalten.
Custom Chatbot
Ein Custom Chatbot ist ein AI-gestützter Chatbot, der speziell auf die Anforderungen eines bestimmten Unternehmens oder Anwendungsfalls zugeschnitten ist. Im Gegensatz zu generischen Chatbots kann ein Custom Chatbot mit firmenspezifischen Daten trainiert werden, um branchenspezifische Fragen zu beantworten oder individuelle Benutzerinteraktionen zu ermöglichen. Dies erhöht die Relevanz und Effizienz der Konversationen.
Deep Learning
Deep Learning ist eine spezielle Form des Machine Learning, die neuronale Netze mit mehreren Schichten verwendet, um komplexe Muster in Daten zu erkennen. Diese Technologie ist besonders effektiv bei der Verarbeitung grosser Datenmengen, wie Bildern, Texten oder Audiodateien, und bildet die Grundlage für viele generative AI-Modelle wie GPT. Deep Learning ermöglicht es Systemen, aus Erfahrungen zu lernen und immer präzisere Vorhersagen zu treffen.
Edge AI
Edge AI beschreibt den Einsatz von Künstlicher Intelligenz direkt auf Endgeräten, ohne dass eine Verbindung zur Cloud erforderlich ist. Dies reduziert Latenzzeiten, verbessert die Datenschutzsicherheit und ermöglicht Echtzeitverarbeitung. Beispiele für Edge AI sind AI-gesteuerte Smartphones, autonome Fahrzeuge oder IoT-Geräte. Diese Technologie wird zunehmend in Bereichen wie Gesundheitswesen, Industrieautomatisierung und Smart Cities eingesetzt.
Ethik in der AI
Ethik in der AI befasst sich mit den moralischen und gesellschaftlichen Auswirkungen von AI-Systemen. Dazu gehören Themen wie Datenschutz, Fairness, Transparenz und die Vermeidung von Bias (Voreingenommenheit). Da AI-Systeme zunehmend Entscheidungen in sensiblen Bereichen treffen, ist es wichtig, ethische Richtlinien zu entwickeln, um Missbrauch zu verhindern und sicherzustellen, dass AI zum Wohl der Gesellschaft eingesetzt wird.
Explainable AI (XAI)
Explainable AI (XAI) umfasst Methoden und Techniken, die darauf abzielen, die Entscheidungsprozesse von AI-Systemen für Menschen nachvollziehbar zu machen. Dies ist besonders wichtig für sicherheitskritische Anwendungen wie Medizin oder Finanzen. XAI hilft dabei, Vertrauen in AI-Systeme zu stärken, indem es Transparenz schafft und ermöglicht, wie und warum eine AI eine bestimmte Entscheidung getroffen hat.
Fine-Tuning
Fine-Tuning ist ein Verfahren zur Anpassung eines bereits trainierten AI-Modells an spezifische Anwendungsfälle. Dabei wird das Modell mit zusätzlichen Daten weitertrainiert, um genauere oder branchenspezifische Ergebnisse zu liefern. Dies ist besonders nützlich für Unternehmen, die bestehende AI-Modelle für ihre individuellen Bedürfnisse optimieren wollen, ohne das gesamte Modell von Grund auf neu trainieren zu müssen.
Generative Chatbots
Generative Chatbots sind AI-gestützte Systeme, die in der Lage sind, menschenähnliche Konversationen zu führen. Im Gegensatz zu regelbasierten Chatbots generieren sie Antworten dynamisch, basierend auf trainierten Daten und Modellen wie GPT. Sie nutzen Natural Language Processing (NLP), um Texte zu verstehen und zu erzeugen, und können in verschiedenen Anwendungen wie Kundenservice, Bildung oder Unterhaltung eingesetzt werden.
GPT (Generative Pre-trained Transformer)
GPT ist ein generatives AI-Modell, das auf der Transformer-Architektur basiert. Es wird mit großen Textmengen trainiert, um natürliche Sprache zu verstehen und zu generieren. GPT-Modelle sind in der Lage, Texte zu schreiben, Fragen zu beantworten und sogar kreative Inhalte wie Gedichte oder Geschichten zu erstellen. Sie sind eine Schlüsseltechnologie für generative Chatbots und andere NLP-Anwendungen.
Hallucination in AI
Hallucination in AI beschreibt das Phänomen, bei dem ein AI-Modell nicht existierende oder falsche Informationen generiert. Besonders generative Sprachmodelle wie GPT können Inhalte erfinden, die plausibel klingen, aber inhaltlich nicht korrekt sind. Dieses Problem kann in Bereichen wie Nachrichten, Forschung oder automatisierten Beratungsdiensten zu Fehlinformationen führen und muss daher durch Modellverbesserungen und Faktenchecks minimiert werden.
Knowledge-Base
Eine Knowledge-Base ist eine strukturierte Sammlung von Informationen, die von einem AI-System genutzt wird, um Fragen zu beantworten oder Probleme zu lösen. Sie kann aus Dokumenten, FAQs, Datenbanken oder anderen Wissensquellen bestehen. Im Kontext von Chatbots wird die Knowledge-Base oft verwendet, um spezifische und genaue Antworten auf Benutzeranfragen zu liefern, insbesondere in branchenspezifischen Anwendungen.
Konfiguration
Die Konfiguration bezieht sich auf die Anpassung und Einstellung von AI-Systemen, um bestimmte Anforderungen zu erfüllen. Dies umfasst Parameter wie die Modellgröße, die Genauigkeit der Antworten oder die Integration von APIs. Eine gut durchdachte Konfiguration ist entscheidend, um die Leistung und Effizienz von AI-Chatbots zu optimieren und sicherzustellen, dass sie den gewünschten Anwendungsfall optimal unterstützen.
Large Language Model (LLM)
Large Language Models (LLMs) sind AI-Modelle, die auf der Verarbeitung natürlicher Sprache spezialisiert sind. Sie werden mit enormen Textmengen trainiert, um Kontext zu verstehen und menschenähnliche Texte zu generieren. Beispiele für LLMs sind GPT und BERT. Diese Modelle bilden die Grundlage für viele Anwendungen, darunter generative Chatbots, Übersetzungstools und Textzusammenfassungen.
Machine Learning (ML)
Machine Learning ist ein Teilgebiet der AI, bei dem Algorithmen aus Daten lernen, um Muster zu erkennen und Vorhersagen zu treffen. Im Gegensatz zu traditioneller Programmierung werden ML-Modelle nicht explizit programmiert, sondern durch Trainingsdaten optimiert. Es gibt verschiedene Ansätze wie überwachtes, unüberwachtes und bestärkendes Lernen, die je nach Anwendungsfall eingesetzt werden.
Natural Language Processing (NLP)
Natural Language Processing (NLP) ist ein Bereich der AI, der sich mit der Interaktion zwischen Computern und menschlicher Sprache beschäftigt. NLP umfasst Aufgaben wie Textverständnis, Sprachgenerierung, Übersetzung und Sentiment-Analyse. Es ist die Grundlage für generative Chatbots und ermöglicht es Maschinen, natürliche Sprache zu verarbeiten und zu erzeugen, wodurch menschenähnliche Kommunikation möglich wird.
Neuronales Netz
Ein neuronales Netz ist ein AI-Modell, das die Struktur und Funktion des menschlichen Gehirns nachahmt. Es besteht aus Schichten von Knoten (Neuronen), die Daten verarbeiten und lernen, komplexe Aufgaben zu lösen. Neuronale Netze sind die Grundlage für Deep Learning und werden in Anwendungen wie Bilderkennung, Sprachverarbeitung und autonomen Fahrzeugen eingesetzt.
Prompt
Ein Prompt ist eine Eingabeaufforderung, die an ein AI-Modell gesendet wird, um eine bestimmte Antwort oder Aktion zu generieren. Die Qualität des Prompts beeinflusst maßgeblich die Genauigkeit und Relevanz der Antwort. Im Kontext von generativen Chatbots werden Prompts verwendet, um Konversationen zu steuern und spezifische Ergebnisse zu erzielen.
Prompt Engineering
Prompt Engineering bezieht sich auf die gezielte Gestaltung von Eingabeaufforderungen (Prompts), um generative AI-Modelle wie GPT optimal zu nutzen. Durch präzise und gut strukturierte Prompts können Benutzer die gewünschten Ergebnisse erzielen, sei es bei der Texterstellung, Beantwortung von Fragen oder Lösung von Problemen. Es ist eine Schlüsselkompetenz für die effektive Interaktion mit AI-Systemen.
Reinforcement Learning (RL)
Reinforcement Learning (RL) ist ein Bereich des maschinellen Lernens, bei dem ein Agent durch Belohnung und Bestrafung lernt, optimale Entscheidungen zu treffen. RL wird oft in der Robotik, im autonomen Fahren und bei Spiele-AIs eingesetzt. Dabei werden Verstärkungsmechanismen genutzt, um die Effizienz des Lernprozesses zu erhöhen und bessere Ergebnisse zu erzielen.
Self-Supervised Learning (SSL)
SSL ist eine Methode des maschinellen Lernens, bei der ein Modell selbstständig Muster und Strukturen in Daten erkennt. Diese Technik wird zunehmend in der Sprach- und Bilderkennung eingesetzt, da sie eine effizientere und skalierbare Alternative zu überwachtem Lernen bietet. SSL hat das Potenzial, den Bedarf an teurer, manuell annotierter Daten zu reduzieren und dennoch leistungsfähige AI-Modelle zu entwickeln.
Temperature
Die Temperature ist ein Parameter in AI-Modellen, der die Kreativität und Zufälligkeit der generierten Texte steuert. Ein niedriger Wert führt zu konservativen und vorhersehbaren Antworten, während ein höherer Wert kreativere und abwechslungsreichere Ergebnisse ermöglicht. Die Einstellung der Temperature ist wichtig, um das Verhalten von Chatbots an den gewünschten Anwendungsfall anzupassen.
Token
Ein Token ist die kleinste Einheit, die ein AI-Modell verarbeiten kann. Im Kontext von NLP können Tokens Wörter, Teile von Wörtern oder Symbole sein. Die Anzahl der Tokens beeinflusst die Leistung und Kosten von AI-Modellen, da viele Systeme pro Token abrechnen. Die effiziente Nutzung von Tokens ist daher ein wichtiger Aspekt bei der Arbeit mit generativen AI-Systemen.
Training
Training bezeichnet den Prozess, bei dem ein AI-Modell mit Daten gefüttert wird, um Muster zu erkennen und zu lernen. Dieser Prozess umfasst die Anpassung von Gewichten in neuronalen Netzen, um die Genauigkeit der Vorhersagen zu verbessern. Das Training kann je nach Modell und Datenmenge sehr rechenintensiv sein, ist aber entscheidend für die Leistungsfähigkeit von AI-Systemen.
Zero-Shot Learning
Zero-Shot Learning ist die Fähigkeit eines AI-Modells, Aufgaben zu bewältigen, ohne vorher mit Beispielen für diese spezifische Aufgabe trainiert worden zu sein. Dies wird durch die Verallgemeinerung von gelernten Konzepten und Merkmalen erreicht, wodurch Modelle flexibler und anpassungsfähiger werden.