Kursinhalt
1. Überblick über Modelltypen (ML, DL, LLMs, multimodale Modelle)
zusammenfassung
0/4
4. Kriterien der Bewertung: Datenbedarf, Performance, Kosten, Transparenz
Die Bewertung von KI-Systemen, Modellen und Plattformen basiert auf einer komplexen Abwägung verschiedener technischer, wirtschaftlicher und ethischer Faktoren. Die von Ihnen genannten Kriterien **Datenbedarf, Performance, Kosten und Transparenz** sind dabei zentrale Aspekte, die in den vorliegenden Quellen ausführlich behandelt werden. Im Folgenden werden diese Kriterien basierend auf den bereitgestellten Informationen detailliert dargestellt: ### 1. Datenbedarf (Data Requirement) Der Bedarf an Trainingsdaten ist ein fundamentaler Aspekt bei der Bewertung und Auswahl von KI-Modellen: * **Datenhunger von Deep Learning (DL):** Tiefe neuronale Netze (DL-Modelle) benötigen in der Regel **sehr große Mengen an Trainingsdaten**. Es wird geschätzt, dass sie oft 20–50 Mal mehr Daten benötigen als klassische Algorithmen. Bei unüberwachtem Lernen können Tausende Beispiele pro Merkmal notwendig sein. * **Qualität und Repräsentativität:** Die Leistungsfähigkeit (Performanz) hängt maßgeblich von der **Qualität und Menge der Daten** ab. Die Daten müssen die Vielfalt der realen Welt abbilden; fehlen wichtige Beispiele oder sind die Daten verzerrt (*Bias*), leidet die Erkennungsfähigkeit. Schlechte Datenqualität kann zu falschen Schlussfolgerungen oder voreingenommenen Ergebnissen führen. * **Voraussetzung für KI-Wertschöpfung:** Die **Verfügbarkeit und Qualität von Daten** wird als die wichtigste Voraussetzung für einen erfolgreichen Einsatz von KI genannt, da KI-Algorithmen ohne ausreichende Daten nicht angemessen trainiert werden können, um Muster zu erkennen und Probleme zu lösen. Viele Unternehmen, insbesondere KMU, kämpfen mit einer fragmentierten oder mangelhaften Datenbasis. ### 2. Performance (Leistungsfähigkeit) Die Performanz eines KI-Systems wird anhand messbarer und qualitativer Merkmale beurteilt und umfasst sowohl Genauigkeit als auch Robustheit und Geschwindigkeit: * **Genauigkeit und Komplexität:** Deep Learning liefert mit ausreichend Daten oft **höhere Genauigkeiten** als flache Modelle, da tiefe Netze selbstständig komplexe Muster und Zusammenhänge erkennen können. * **Robustheit:** Dieses Kriterium bezieht sich auf die **Generalisierungsfähigkeit** des Modells, d. h. seine Leistung bei neuen Eingaben, selbst wenn diese verrauscht oder manipuliert sind (*adversarial examples*). Das KI-System muss in jeder Situation zuverlässig funktionieren. * **Skalierung und Modellgröße (LLMs):** Die Leistungsfähigkeit von Large Language Models (LLMs) wird unter anderem durch die **Anzahl der Parameter** (z. B. 8 Milliarden oder 70 Milliarden Parameter) und die **Kontextlänge** (z. B. bis zu 2 Millionen Tokens) gemessen. Die Verbesserungen in der Leistungsfähigkeit skalieren tendenziell mit der Potenz des anfänglichen Basismodells. * **Fehlerquoten und Halluzinationen:** Bei generativen Modellen muss das Risiko von **Halluzinationen** beachtet werden (plausible, aber inhaltlich falsche Texte), was die Zuverlässigkeit mindert. Modelle mit Reasoning-Fähigkeiten sollen diese Fehler verringern. * **Geschwindigkeit:** Im Unternehmenskontext sind schnelle **Antwortzeiten** ein wichtiger Performance-Indikator, die von Stunden auf Minuten gesenkt werden können. Modelle, die effiziente Architekturen oder Komprimierungstechniken nutzen, können schneller sein. ### 3. Kosten (Ressourcen und Wirtschaftlichkeit) Die Kosten umfassen den initialen Aufwand (Training) sowie die laufenden Betriebskosten (Inferenz) und die gesamte Wirtschaftlichkeit des Einsatzes: * **Rechenaufwand und Energiebedarf:** Das Training und der Betrieb (Inferenz) tiefer Netze sind **sehr rechenintensiv**. Dies führt zu hohem **Stromverbrauch** und langen Trainingszeiten. Der hohe Bedarf an Rechenressourcen und Energie stellt eine sichtbare Herausforderung dar. Kleinere, klassische Modelle sind oft ressourcensparender und energieeffizienter. * **Modellkosten und Pricing:** Bei KI-as-a-Service (KaaS) oder LLM-Diensten erfolgt die Abrechnung oft nach **tatsächlichem Gebrauch**, beispielsweise pro verarbeitetem Token oder pro analysiertem Bild. * Die Token-Kosten variieren stark; chinesische Anbieter sind oft **deutlich günstiger** in der Abrechnung pro Million Token als die amerikanischen Anbieter. * **Cloud-Lösungen** bieten Pay-as-you-go-Modelle, aber die Kosten können bei hohem Verbrauch **unkalkulierbar** werden. * **Preistransparenz** (klare Lizenz- und Verbrauchsmodelle) ist ein wichtiges Auswahlkriterium für Business AI Plattformen, um planbare Kosten zu gewährleisten. * **Kosten-Nutzen-Analyse:** Eine umfassende **Kostenkalkulation** ist erforderlich, da komplexere KI-Lösungen im Einzelfall oft **unrentabel** sein können und einfachere Alternativen effizienter wären. ### 4. Transparenz (Erklärbarkeit und Offenlegung) Die Transparenz ist besonders relevant in kritischen und regulierten Anwendungsbereichen (z. B. Justiz, Medizin): * **Erklärbarkeit (XAI) und Black-Box-Problem:** Ein zentrales Kriterium ist die **Transparenz und Erklärbarkeit** der Entscheidungsprozesse. Die Natur der tiefen neuronalen Netze, die oft als „Black Box“ fungieren, erschwert das Verständnis, **warum** ein Netz eine bestimmte Entscheidung getroffen hat. * **Trade-off:** Bei der Auswahl von KI-Modellen muss der **Abwägung zwischen Nachvollziehbarkeit und Leistungsfähigkeit** berücksichtigt werden. * **Regulatorische Anforderungen:** Die EU AI Act führt **Transparenzpflichten** ein. Anbieter von GPAI-Modellen müssen eine ausführliche **technische Dokumentation** der Funktionsweise und Limitationen erstellen. * **Offenlegung von Trainingsdaten:** Anbieter müssen **Informationen über die verwendeten Trainingsdaten** (zumindest eine ausreichend detaillierte Zusammenfassung) veröffentlichen, um Nutzern und Aufsichtsbehörden eine Einschätzung des Materials und potenzieller Verzerrungen zu ermöglichen. * **Open Source vs. Proprietär:** Echte Open-Source-Modelle wie **Apertus** legen alles Wesentliche komplett offen: Quellcode, Gewichte, Trainingsdaten, Filterprozeduren und das Alignment. Open-Weight-Modelle (wie DeepSeek) geben zwar die Gewichte frei, halten aber oft Details zum Trainingskorpus geheim. Diese **Transparenz ermöglicht Nachvollziehbarkeit** bis hinab zu den Trainingsdaten.
0/4
5. Vergleich von On-Premise-, Cloud- und Hybrid-Lösungen
Die Wahl der richtigen Infrastruktur für KI-Systeme ist ein zentrales strategisches Kriterium. Die Entscheidung zwischen **On-Premise** (lokaler Betrieb), **Cloud-basierten** Lösungen (Public Cloud/KaaS) und einer **Hybrid-Lösung** hängt maßgeblich von den Anforderungen an Datensicherheit, Kosten, Skalierbarkeit und Kontrolle ab. Zusammenfassend lässt sich festhalten, dass Cloud-Lösungen zwar einen **niedrigschwelligen Einstieg** in KI-Anwendungen ermöglichen und bei geringem Fachkräftebedarf gut skalierbar sind, jedoch aufgrund der **Abhängigkeitsverhältnisse** und des **Datenschutzes** (Cloud Act) für Unternehmen mit hohem Datenschutzbedarf eine Hybrid- oder On-Premise-Lösung strategisch vorteilhafter sein kann.
0/3
6. Beispiele aus Praxisfeldern (Industrie, Bildung, Verwaltung, Medien)
Die Künstliche Intelligenz (KI) findet in den von Ihnen genannten Praxisfeldern vielfältige Anwendung, wobei die eingesetzten Modelle (wie Deep Learning und Generative KI) maßgeblich zur Effizienzsteigerung, Prozessautomatisierung und Innovation beitragen.
0/4
7. Fallarbeit: Auswahl einer Plattform anhand von Projektzielen
Die **Auswahl einer KI-Plattform** ist ein strategischer Prozess, der weit über die bloße technische Evaluierung hinausgeht. Er muss sich strikt an den definierten **Projektzielen (Use Cases)** und den daraus abgeleiteten Anforderungen an Compliance, Integration, Kosten und notwendiger Infrastruktur orientieren. Die Quellen beschreiben einen strukturierten Ansatz zur Einführung einer Unternehmens-KI-Software oder zur Auswahl der passenden Plattform, der in drei Hauptphasen unterteilt werden kann: --- ## 1. Strategische Vorbereitung: Bedarfsanalyse und Zieldefinition Die wichtigste Überlegung ist die Zweckmäßigkeit der KI-Lösung für den spezifischen Anwendungsfall. Dieser Prozess sollte durch eine Taskforce aus Management, IT und Organisationsentwicklung (OE) vorangetrieben werden. ### a) Priorisierung der Anwendungsfälle (Use Cases) Die Leitfrage in dieser ersten Phase ist, in welchen Bereichen der Einsatz von KI den größten Mehrwert bietet. * **Abstimmung auf das Problem:** Es muss immer mit der **einfachsten Lösung** begonnen werden. Wenn ein Problem deterministisch ist und mit einfacher Mathematik oder SQL gelöst werden kann, ist KI unnötig, teurer und weniger zuverlässig. * **Identifikation des Nutzens (ROI):** Konkrete Anwendungsfälle müssen identifiziert und quantifiziert werden, um den **Return-on-Investment (ROI)** zu prüfen. Bereiche, in denen Routineaufgaben dominieren und eine gute Datenverfügbarkeit besteht, sind prädestiniert. * **Use-Case-Priorisierung:** Es sollte ermittelt werden, welche Prozesse am meisten profitieren (z. B. DMS, ERP, CRM). Der Fokus sollte auf Lösungen liegen, die Kosten senken und die Effizienz steigern. ### b) Auswahl des geeigneten KI-Typs Je nach Projektziel muss der passende KI-Typ ausgewählt werden: | Projekttyp / Ziel | Empfohlene KI-Methode | Kriterien / Details | | :--- | :--- | :--- | | **Kreative Synthese, Textgenerierung, Zusammenfassung** (gemischte/unstrukturierte Daten) | Generative KI (GenKI) / Large Language Models (LLMs) | LLMs treiben die aktuelle Welle generativer KI an und sind vielseitig einsetzbar. | | **Vorhersagen, Klassifikation** (strukturierte Daten mit klaren Vorhersagezielen) | Klassisches Maschinelles Lernen (ML) oder flache Modelle | ML ist oft effektiver und günstiger für diese Aufgaben. Kleinere, klassische Modelle sind zudem ressourcensparender und energieeffizienter. | | **Fachwissen und Domänenspezialisierung** | Retrieval Augmented Generation (RAG) | RAG ermöglicht es, LLMs mit **aktuellen und vertraulichen Daten** (z. B. firmeninternen Dokumenten) auszustatten, ohne das Modell neu trainieren zu müssen. | | **Mehrstufige Prozesssteuerung** | KI-Agenten (ggf. unter Nutzung von MCP) | Agenten sind nur sinnvoll, wenn die Aufgabe eine **mehrstufige Orchestrierung** und klare Entscheidungspunkte erfordert. | ## 2. Technische und Architektonische Entscheidungen Die Auswahl der Plattformstrategie (Tool vs. Plattform) und des Bereitstellungsmodells (Cloud, On-Premise, Hybrid) ist entscheidend. ### a) Datenstrategie und -qualität Eine solide **Datenstrategie** und die **Qualität** der eigenen Datenbasis sind die wichtigsten Voraussetzungen für den KI-Einsatz. * Die Investition in **Datenmanagement** und **Datenhygiene** sollte immer der erste Schritt sein, bevor die Plattform-Frage gestellt wird, da viele Unternehmen mit fragmentierten Dateninfrastrukturen kämpfen. * Die Performanz eines Modells hängt maßgeblich von **hochwertigen Datensätzen** ab. ### b) Infrastrukturentscheidung (Cloud, On-Premise, Hybrid) Die Wahl des Bereitstellungsmodells hängt von der Sensibilität der Daten, den regulatorischen Anforderungen, Kosten und der Skalierbarkeit ab. * **Hybridstrategie:** Wird oft als der **beste Kompromiss** für den Mittelstand betrachtet. Hierbei können **sensible Daten lokal** (On-Premise) verarbeitet und **rechenintensive Aufgaben** in die Public Cloud ausgelagert werden. * **Cloud (KaaS):** Bietet **unbegrenzte Skalierbarkeit**, **geringe Anfangsinvestitionen** und schnellen Zugriff auf neueste Tools. Nachteilig sind jedoch die **unkalkulierbaren Kosten** bei hohem Verbrauch und die hohe Abhängigkeit von US-Hyperscalern, die dem **US Cloud Act** unterliegen können (relevant bei Datenschutzbedarf). * **On-Premise:** Bietet **volle Kontrolle über Daten und Systeme** und erleichtert die Einhaltung von DSGVO. Erfordert jedoch hohe Anfangsinvestitionen in Hardware und Personal. ### c) Plattform vs. Tool-Chaos Unternehmen müssen entscheiden, ob sie weiterhin auf einzelne KI-Tools setzen oder eine **zentrale Enterprise KI Plattform** einführen wollen. * Der **Plattform-Ansatz** ist sinnvoll, um Silos zu vermeiden und eine skalierbare Basis zu schaffen, die alle relevanten Datenquellen, Anwendungen und KI-Funktionen zusammenführt, um **ganzheitlich und regelkonform** zu arbeiten. * SaaS-Tools (z. B. OpenAI, Anthropic, Celonis) bieten schnelle Lösungen für spezifische Probleme, bergen aber das Risiko, **fragmentierte Silos** zu schaffen, wenn keine übergreifende Strategie existiert. ## 3. Kriterien zur Bewertung und Auswahl der Plattform Die endgültige Auswahl der Business AI Plattform erfolgt anhand spezifischer Kriterien, die planbare Kosten, Compliance und Integrationsfähigkeit sicherstellen sollen. | Kriterium | Details und Anforderungen an das Projektziel | Quellen | | :--- | :--- | :--- | | **Compliance & Datenschutz** (Transparenz) | **Strikte Umsetzung** von DSGVO und EU AI Act ist obligatorisch. Besonders bei hohem **Datenschutzbedarf** oder der Verarbeitung personenbezogener Daten ist dies ein entscheidender Erfolgsfaktor. Es sollten Modelle und Betreiber ausgewählt werden, die **Transparenz** (z. B. durch Offenlegung von Trainingsdaten) und **Auditierbarkeit** gewährleisten. | | | **Integration** | Die Plattform muss sich **harmonisch in das bestehende Umfeld** einfügen und **nahtlose Integrationen** zu ERP, DMS und CRM über Schnittstellen (Standard-Connectors) ermöglichen. | | | **Kosten & Preistransparenz** | Klare **Lizenz- und Verbrauchsmodelle** (Preistransparenz) sind erforderlich, um **planbare Kosten** zu gewährleisten. Eine umfassende **Kosten-Nutzen-Analyse** ist notwendig, da komplexe Lösungen oft unrentabel sein können. | | | **Modellflexibilität** (Performance) | Die Plattform sollte **konfigurierbare KI-Agenten** und die Einbindung eigener Modelle ermöglichen. Für strategisch kritische Anwendungen kann eine **maßgeschneiderte oder stark angepasste Plattform** notwendig sein. | | | **Leistungsfähigkeit (Performance)** | Modelle müssen die Aufgabe **korrekt ausführen** (Performanz) und über ausreichende **Robustheit** (Generalisierungsfähigkeit) verfügen. Bei LLMs ist die Unterstützung von **RAG** zur Verbesserung der Aktualität und Vertrauenswürdigkeit relevant. | | | **Ressourcen und Effizienz** (Kosten) | Prüfen, ob der Rechenaufwand im Verhältnis zum Nutzen steht. Kleinere, energieeffizientere Modelle (z. B. für Edge Computing) können praktikabler sein. | | | **Akzeptanz & Training** | Es ist zu prüfen, wie leicht Mitarbeitende mit der neuen Software umgehen können und welche laufenden **Schulungen** benötigt werden. Für Anwendungsfälle mit kritischen Auswirkungen ist die **kritische Reflexion** der KI-basierten Ergebnisse durch das Fachpersonal gefragt. | | | **Support und Herstellerqualität** | Es sollte geprüft werden, ob der Hersteller den benötigten **Support** (z. B. Vorlagen und persönliche Betreuung) liefert und ob die Organisation, die für die Zertifizierung betraut ist, **vertrauenswürdig** und unabhängig ist. | | Entscheider sollten **Use-Cases, Nutzen, ROI und Compliance-Bedarf ins Zentrum ihrer Entscheidung** rücken. Unternehmen, die Compliance und Integration von Anfang an berücksichtigen, erzielen den höchsten ROI.
0/3
M04: KI-Modelle & Plattformen – Vergleich, Bewertung und Anwendung

2. Deep Learning (DL)

Definition und Abgrenzung: Deep Learning (DL) ist ein Teilgebiet des Maschinellen Lernens. Es zeichnet sich durch den Einsatz von mehrschichtigen künstlichen neuronalen Netzen aus. Diese Modelle bestehen aus vielen Schichten von Neuronen, die hintereinander geschaltet sind, woraus sich der Begriff „Deep“ Learning ableitet.

Funktionsweise: DL-Modelle benötigen weniger manuelle Vorverarbeitung als klassische ML-Algorithmen. Sie lernen Merkmalsrepräsentationen direkt aus Rohdaten (wie Pixeln, Audiosignalen oder Text). Die Tiefe des Netzes (Anzahl der verborgenen Schichten) ermöglicht es, komplexe Merkmale in Stufen zu extrahieren: Niedrige Schichten erkennen einfache Muster, während höhere Schichten diese zu immer abstrakteren Merkmalen kombinieren.

Wichtige Architekturen (Spezialisierte NN-Typen): Tiefen Netze gibt es in verschiedenen spezialisierten Varianten:

  • Convolutional Neural Networks (CNN): Diese sind oft die Grundlage für autonome Systeme wie selbstfahrende Autos oder Drohnen zur Umfeldwahrnehmung und Objekterkennung (z.B. Fußgänger oder Fahrbahnmarkierungen).
  • Rekurrente neuronale Netze (RNN): Verfügen über Rückkopplungen und besitzen ein Kurzzeitgedächtnis, wodurch sie sich für sequenzielle Daten (Ton, Text, Zeitreihen) eignen, da Informationen aus früheren Eingaben die aktuelle Verarbeitung beeinflussen.
  • Transformer: Eine moderne, tiefschichtige Architektur, die auf dem Selbstaufmerksamkeits-Mechanismus (Self-Attention) basiert. Transformer sind sehr effizient für Sprach- und Textaufgaben und bilden die Grundlage großer Sprachmodelle (LLMs).

.