Diffusion
Diffusion ist die Technologie hinter vielen bild-, musik- oder textgenerierenden KI-Modellen. Inspiriert von physikalischen Prozessen wird Struktur in Daten (z. B. Fotos) durch das Hinzufügen von Rauschen zerstört. Anders als…
Diffusion ist die Technologie hinter vielen bild-, musik- oder textgenerierenden KI-Modellen. Inspiriert von physikalischen Prozessen wird Struktur in Daten (z. B. Fotos) durch das Hinzufügen von Rauschen zerstört. Anders als…
Eine Methode, bei der Wissen aus einem großen Modell in ein kleineres übertragen wird. Ein Lehrer-Modell erzeugt Ausgaben, die ein Schüler-Modell nachahmt. So entstehen kleinere, schnellere Modelle (wie GPT-4 Turbo).…
Fine-Tuning bezeichnet das nachträgliche Training eines bereits vortrainierten KI-Modells mit zusätzlichen, spezifischen Daten. Ziel ist es, die allgemeine Leistungsfähigkeit des Modells auf bestimmte Anwendungsbereiche oder Zielgruppen zuzuschneiden. Insbesondere Start-ups und…
Ein GAN (Generative Adversarial Network) besteht aus zwei miteinander konkurrierenden neuronalen Netzwerken: dem Generator und dem Diskriminator. Der Generator versucht, möglichst realistische Daten (z. B. Bilder, Audiodateien oder Texte) zu erzeugen.…
Wenn KI-Modelle falsche oder frei erfundene Informationen erzeugen, spricht man von sogenannten Halluzinationen. Dabei handelt es sich nicht um einfache Fehler, sondern um Inhalte, die grammatikalisch korrekt und glaubwürdig wirken,…
Inference – Die Anwendung von KI-Modellen in der Praxis Inference (auf Deutsch: „Schlussfolgerung“ oder „Ableitung“) bezeichnet die Phase, in der ein bereits trainiertes KI-Modell tatsächlich eingesetzt wird, um neue Daten…
LLMs sind die Basis von KI-Assistenten wie ChatGPT, Claude oder Gemini. Sie bestehen aus Milliarden Parametern und erkennen Sprachmuster auf Basis riesiger Textsammlungen. Auf eine Eingabe berechnet das Modell das…
Struktur aus vielen Schichten, inspiriert vom menschlichen Gehirn. Mit der Entwicklung von GPUs (ursprünglich für Spiele) wurde das Training tiefer Netze erst praktikabel. Solche Netzwerke sind die Grundlage für Spracherkennung,…
Das KI-Modell lernt durch das Training mit Datenmustern. Vor dem Training ist das Modell nur ein Haufen Zufallszahlen. Erst durch das Training entstehen nützliche Fähigkeiten. Trainingsintensive Modelle sind teuer, benötigen…
Ein bereits trainiertes Modell dient als Ausgangsbasis für ein neues Modell mit ähnlicher Aufgabe. Das spart Zeit und Daten. Für spezialisierte Aufgaben sind jedoch zusätzliche Trainingsdaten notwendig.