Zum Hauptinhalt springen

KI-Glossar

Die wichtigsten Begriffe rund um künstliche Intelligenz, Edge Computing und Datenschutz – verständlich erklärt für Einsteiger und Entscheider.

Edge AI

Edge AI bedeutet, dass künstliche Intelligenz direkt auf lokaler Hardware läuft, statt in einem entfernten Rechenzentrum (Cloud).

Statt Daten an einen Cloud-Server zu schicken, verarbeitet ein lokales Gerät die Anfrage selbst. Das spart Latenz, schützt sensible Daten und funktioniert ohne Internetverbindung. NVIDIA Jetson ist eine der führenden Hardware-Plattformen für Edge AI.

LLM (Large Language Model)

Ein Large Language Model ist ein KI-Modell, das auf riesigen Textmengen trainiert wurde und natürliche Sprache verstehen und generieren kann.

Bekannte Beispiele sind GPT (OpenAI), Llama (Meta), Mistral und Qwen. LLMs können Texte zusammenfassen, Fragen beantworten, übersetzen und Code schreiben. Die Qualität hängt von der Parameterzahl ab – 7 Milliarden Parameter reichen für viele Business-Aufgaben, 70 Milliarden liefern nochmals bessere Ergebnisse.

RAG (Retrieval Augmented Generation)

RAG kombiniert eine Dokumentensuche mit einem Sprachmodell, um Antworten auf Basis eigener Unternehmensdaten zu generieren.

Statt nur auf sein Trainingswissen zurückzugreifen, durchsucht das Modell zuerst eine Wissensdatenbank (z. B. Verträge, Handbücher, E-Mails) und beantwortet die Frage dann mit konkreten Quellenangaben. RAG ist die Grundlage für Arasuls Dokumentensuche.

Quantisierung

Quantisierung reduziert die Speichergröße eines KI-Modells, indem die Präzision der Gewichte verringert wird – z. B. von 16 Bit auf 4 Bit.

Ein 70-Milliarden-Parameter-Modell braucht normalerweise 140 GB Speicher. Mit 4-Bit-Quantisierung passt es in 35 GB – bei 96 % der ursprünglichen Qualität. Das macht es möglich, leistungsstarke Modelle auf kompakter Edge-Hardware wie NVIDIA Jetson zu betreiben.

Inferenz

Inferenz ist der Vorgang, bei dem ein trainiertes KI-Modell auf neue Daten angewendet wird – es wendet sein Gelerntes an.

Das Gegenstück ist Training (das Modell lernt aus Daten). Für Unternehmensanwendungen brauchst du in der Regel nur Inferenz: Texte zusammenfassen, Rechnungen auslesen, E-Mails beantworten. Inferenz ist viel weniger rechenintensiv als Training und läuft problemlos auf lokaler Hardware.

NVIDIA Jetson

NVIDIA Jetson ist eine Familie kompakter, energieeffizienter KI-Computer, die speziell für Edge-AI-Anwendungen entwickelt wurden.

Die Jetson-Serie reicht vom Orin Nano (67 TOPS, 8 GB RAM) über den AGX Orin (275 TOPS, 64 GB) bis zum AGX Thor (2.070 TFLOPS, 128 GB). Arasul nutzt Jetson als Hardware-Plattform für seine KI-Server. Energieverbrauch: 7–130 Watt, je nach Modell.

On-Premise

On-Premise bedeutet, dass Software oder Hardware im eigenen Unternehmen betrieben wird, statt in der Cloud eines Drittanbieters.

Der Vorteil: Volle Kontrolle über Daten, keine Abhängigkeit von externen Anbietern, keine Datenübermittlung an Dritte. Für datenschutzsensible Branchen wie Steuerberatung, Recht oder Gesundheit ist On-Premise-KI oft die einzige DSGVO-konforme Option.

DSGVO (Datenschutz-Grundverordnung)

Die DSGVO ist die europäische Verordnung zum Schutz personenbezogener Daten. Sie regelt, wie Unternehmen Daten erheben, verarbeiten und speichern dürfen.

Für KI-Anwendungen besonders relevant: Art. 6 (Rechtsgrundlage), Art. 22 (automatisierte Entscheidungen), Art. 25 (Privacy by Design) und Art. 35 (Datenschutz-Folgenabschätzung). Bei Cloud-KI findet eine Datenübermittlung an Dritte statt, die eine Rechtsgrundlage erfordert.

EU AI Act

Der EU AI Act ist das weltweit erste umfassende KI-Gesetz. Er reguliert den Einsatz von KI in der EU, abgestuft nach Risiko.

Ab August 2026 gelten die vollständigen Pflichten. KI-Systeme werden in Risikoklassen eingeteilt: von verboten (Social Scoring) über Hochrisiko (Personalentscheidungen, Kreditvergabe) bis minimal. Bußgelder reichen bis 35 Mio. EUR oder 7 % des Jahresumsatzes.

Ollama

Ollama ist ein Open-Source-Tool, das lokale KI-Modelle auf dem eigenen Rechner verwaltet und ausführt.

Mit einem einzigen Befehl (z. B. `ollama run llama3`) kannst du ein Sprachmodell herunterladen und lokal starten. Ollama unterstützt Llama, Mistral, Qwen, Gemma und viele weitere Modelle. Arasul nutzt Ollama als Modellverwaltung auf der KI-Hardware.

n8n

n8n ist ein Open-Source-Workflow-Automatisierungstool mit visuellem Editor – vergleichbar mit Zapier oder Make, aber selbst hostbar.

Mit n8n kannst du Workflows per Drag-and-Drop erstellen: E-Mails empfangen, PDFs auslesen, KI-Modelle abfragen, Ergebnisse in Excel oder Datenbanken schreiben. Arasul nutzt n8n als zentrale Automatisierungsplattform auf der lokalen Hardware.

Token

Ein Token ist die kleinste Einheit, die ein Sprachmodell verarbeitet – ungefähr ein Wort oder ein Wortteil.

Cloud-KI-Anbieter berechnen ihre Preise pro Token. 1 Million Tokens entsprechen ungefähr 750.000 Wörtern. Bei lokaler KI fallen keine Token-Kosten an – die Hardware ist einmal bezahlt, danach ist jede Anfrage kostenlos.

Open-Source-Modell

Ein Open-Source-KI-Modell ist frei verfügbar und kann ohne Lizenzgebühren heruntergeladen, verwendet und angepasst werden.

Die bekanntesten Open-Source-LLMs sind Llama 3 (Meta), Mistral (Frankreich), Qwen 2.5 (Alibaba) und Gemma 2 (Google). Sie erreichen für typische Business-Aufgaben 90–95 % der Qualität kommerzieller Dienste wie ChatGPT und können lokal auf eigener Hardware betrieben werden.

DPIA (Datenschutz-Folgenabschätzung)

Eine DPIA ist eine von der DSGVO vorgeschriebene Risikobewertung, die durchgeführt werden muss, wenn eine Datenverarbeitung voraussichtlich hohe Risiken für Betroffene birgt.

KI-Systeme, die personenbezogene Daten verarbeiten, erfordern in den meisten Fällen eine DPIA (Art. 35 DSGVO). Bei lokaler Verarbeitung ist die DPIA deutlich einfacher, da keine Datenübermittlung an Dritte stattfindet.

Vendor Lock-in

Vendor Lock-in bedeutet, dass ein Unternehmen von einem bestimmten Anbieter abhängig wird und nicht ohne Weiteres wechseln kann.

Bei Cloud-KI-Diensten entsteht Lock-in durch proprietäre APIs, Datenformate und Workflows. Preiserhöhungen oder Serviceänderungen sind dann kaum zu umgehen. Lokale KI mit Open-Source-Modellen vermeidet dieses Problem – Modelle und Daten gehören dir.