Suchen
IM-hero

Was ist generative KI?

KI, die aus Daten lernt, um neue Texte, Bilder, Audio, Videos oder Code zu erzeugen, und diese nicht nur zu analysieren.

Daten: Die erneuerbare „Energiequelle“, die generative KI leistungsfähig und zuverlässig macht

Von den umfangreichen Datensätzen, mit denen LLMs trainiert werden, bis hin zu deren Feinabstimmung durch sorgsam abgestimmte Machine-Learning-Pipelines sind Daten der entscheidende Faktor. Dank hochwertiger, vielfältiger Informationen können diese Systeme Muster erkennen, Verzerrungen reduzieren und Fehler wie Halluzinationen oder inkonsistente Ergebnisse minimieren. Moderne Architekturen wie Transformer, Diffusionsmodelle, Generative Adversarial Networks (GANs) und Variational Autoencoders (VAEs) basieren alle auf dieser Grundlage. Robuste Datenschutzmaßnahmen und nachvollziehbare Metriken gewährleisten die Vertrauenswürdigkeit der Technologie. Das Fazit ist einfach: Wer Daten wie eine erneuerbare, strategische Ressource behandelt, erzielt den größten Nutzen. Durch das Kuratieren bereinigter, sicherer und repräsentativer Daten können Unternehmen die Kreativität und Zuverlässigkeit von generativer KI kontinuierlich verbessern und damit die „Daten-Dividende“ zu einem dauerhaften Wettbewerbsvorteil machen.

So funktioniert generative KI

IM-TI-20

Generative KI basiert auf der einfachen, aber sehr effektiven Idee, das nächste Wort vorherzusagen. Einfach gesagt betrachtet ein Sprachmodell eine Folge von Wörtern und wägt ab, welches Wort oder Token am wahrscheinlichsten als Nächstes folgt. Wenn Sie „Ich muss …“ eingeben, berechnet das Modell die Wahrscheinlichkeiten für Fortsetzungen wie „essen“, „schlafen“ oder „einkaufen gehen“ und wählt dann die Option aus, die am besten passt. Durch die schnelle Wiederholung dieses Schritts können Sätze, Absätze oder sogar ganze Artikel erstellt werden, die klingen, als wären sie von einem Menschen verfasst worden.

Um diese Muster zu erlernen, muss ein Modell mit umfangreichen Textmengen aus Büchern, Websites, Code-Repositorys und weiteren Quellen trainiert werden. Beim Training werden Textabschnitte ausgeblendet und das Modell wird aufgefordert, die fehlenden Teile zu ergänzen. Bei jeder falschen Lösung passt das neuronale Netz die Millionen oder Milliarden interner „Gewichtungen“ an, die bestimmen, wie Wörter zueinander in Beziehung stehen. Moderne Systeme verwenden eine Transformer-Architektur, die auf mehrschichtigen Aufmerksamkeitsmechanismen (Attention) beruht. Sie eignet sich hervorragend, um Verbindungen zwischen voneinander entfernten Wörtern in einem Satz herzustellen. Dadurch können sie den Kontext und bestimmte sprachliche Nuancen erfassen.

Es ist die Skalierung, die der modernen generativen KI ihre beeindruckenden Fähigkeiten verleiht. Modelle wie GPT-4 enthalten Hunderte Milliarden oder sogar Billionen von Parametern, die alle durch die Verarbeitung riesiger Datensätze optimiert wurden. Nach dem Vortraining erfolgt die Feinabstimmung durch „Instruction Tuning“ und menschliches Feedback. Die Entwickler zeigen dem Modell Beispiele für hilfreiche Antworten und bewerten seine Ausgaben. In dieser Phase der Feinabstimmung wird das Modell auf Ziele wie Nützlichkeit, Rechtschaffenheit und Sicherheit trainiert, damit es sich wie ein Assistent verhält und nicht wie ein reines Textvorhersage-Tool.

Trotz aller Eloquenz verfügt generative KI jedoch nicht über echtes Verständnis. Da sie sich auf statistische Muster stützt, sind überzeugende, aber dennoch falsche Aussagen, sogenannte Halluzinationen, möglich. Die KI überprüft weder Fakten, noch berücksichtigt sie die reale Welt. Sie sagt lediglich das wahrscheinlichste nächste Token voraus. Diese Einschränkung liefert auch die Erklärung für ihre beeindruckende Kreativität einerseits und ihre gelegentlichen, mit höchster Überzeugung ausgegebenen Fehler andererseits.

Diese Erklärung bezieht sich auf die gesamte Funktionsweise von generativer KI – den Kernmechanismus der Vorhersage des nächsten Wortes, den großangelegten Trainingsprozess, die Transformer-Architektur, die den Kontext erfasst, die Feinabstimmung, die sie an die Erwartungen des Menschen anpasst, und die Einschränkungen, die gelegentlich zu Ungenauigkeiten führen.

Die vier Phasen im Überblick:

  • Kernmechanismus: Vorhersage des nächsten Wortes (oder Tokens) zur Erstellung eines flüssigen Textes
  • Training: Verwendung umfangreicher Datensätze, Maskierung von Wörtern und Anpassung von Milliarden von Parametern neuronaler Netze
  • Verstärktes Lernen mit menschlichem Feedback (Reinforcement Learning with Human Feedback, RLHF) Generative KI beginnt mit dem Training anhand von umfangreichen Datensätzen. Dabei kann es sich um Sammlungen von Texten, Bildern, Musik oder anderen Medien handeln. Das System lernt Regeln, Beziehungen und Strukturen, die in diesen Daten verborgen sind. Nach dem Training folgt die Optimierung der Modelle, um die Richtigkeit und Benutzerfreundlichkeit zu verbessern. Die Überprüfung durch Menschen führt zu verlässlicheren, sichereren und kontextgerechteren Ergebnissen.
  • Architektur: Beschreibt die Transformer-Schichten, die den Kontext und die Beziehungen zwischen Wörtern erfassen.
  • Skalierung und Feinabstimmung: Beschreibt, wie eine große Anzahl von Parametern, die Optimierung von Anweisungen und menschliches Feedback ein brauchbares Modell schaffen. Das Modell wird mit kleineren, spezialisierten Datensätzen angepasst, um es optimal auf Nischenanwendungen (zum Beispiel Rechtsdokumente oder medizinische Bildgebung) abzustimmen.
  • Beschränkungen: Modelle basieren auf statistischen Mustern und können „halluzinieren“.

Darüber hinaus gibt es einige ergänzende Ansätze zur generativen KI selbst: Jeder entspricht einer spezifischen Methode zur Erstellung neuer Inhalte. Mit VAEs und GANs hielten Deep-Learning-Techniken Einzug in die Datengenerierung. Diffusionsmodelle sind heute führend in der hochauflösenden Bild- und Videosynthese, und Transformer bringen die Text- und multimodale Inhaltserstellung im großen Maßstab voran.

  • Variational Autoencoders (VAEs): Einer der frühesten modernen Deep-Learning-Ansätze zur Inhaltsgenerierung. VAEs erlernen einen latenten Raum von Daten und können diesem Raum Muster entnehmen, um neue Bilder, Töne usw. zu erstellen. Sie bleiben wichtig für Aufgaben, die eine kontrollierbare, kontinuierliche latente Darstellung erfordern.
  • Generative Adversarial Networks (GANs): GANs wurden 2014 eingeführt und lassen einen Generator in einer Trainingsschleife wie in einem Spiel gegen einen Diskriminator antreten. Sie waren mehrere Jahre lang die vorherrschende Methode für die fotorealistische Bildsynthese und werden nach wie vor dort eingesetzt, wo extrem scharfe Bilder oder Stilübertragungen erforderlich sind.
  • Diffusionsmodelle: Eine neuere Kategorie (zum Beispiel Stable Diffusion, DALL·E 3), die zufälliges Rauschen durch Entrauschen iterativ zu einer kohärenten Ausgabe umwandelt. Aufgrund ihrer Stabilität und hohen Wirklichkeitstreue sind sie inzwischen führend in der modernen Bild- und Videogenerierung.
  • Transformer: Das Rückgrat der modernen großen Sprachmodelle und vieler multimodaler Systeme. Sie prognostizieren das nächste Token (Wort, Bildausschnitt, Audioausschnitt usw.) und lassen sich effektiv auf umfangreiche Datensätze skalieren. So sind Tools wie GPT-4 und Gemini entstanden.
     

Whitepaper: DIY KI-Bewertung

Entdecken Sie die bahnbrechenden Einsatzmöglichkeiten von KI, ihre Auswirkungen auf die Umwelt und wichtige ethische Kriterien. 

GenAI-Modellarchitekturen und ihre Entwicklung

Die moderne generative KI geht auf die Transformer-Architektur (2017) zurück. Ein Transformer besteht im Wesentlichen aus zwei Bausteinen, einem Encoder und einem Decoder, ergänzt durch Aufmerksamkeitsmechanismen (Attention), die Beziehungen innerhalb einer Eingabesequenz erfassen. Im Laufe der Zeit erkannten Wissenschaftler, dass unterschiedliche Aufgaben eine unterschiedliche Kombination dieser Bausteine erfordern:

  • „Encoder-only“-Modelle eignen sich für Verständnisaufgaben, bei denen die Klassifizierung oder Darstellung von Text im Vordergrund steht. Beispiele hierfür sind das Sprachmodell Bidirectional Encoder Representations from Transformers (BERT) und dessen Nachfolger. Sie verarbeiten Texteingaben, erstellen Einbettungen und Kategorien, ohne neuen Text zu generieren.
  • „Decoder-only“-Modelle sind auf die Sequenzgenerierung spezialisiert. GPT-Modelle (GPT-1 bis GPT-4 und darüber hinaus) nutzen ausschließlich den Decoder, um das nächste Token vorherzusagen. Dadurch sind sie ideal für die Erstellung von Freitext geeignet, wie es zum Beispiel ChatGPT tut.
  • „Encoder-Decoder“-Modelle übernehmen Aufgaben wie maschinelle Übersetzung. Sie müssen Eingaben verstehen (Kodierung) und anschließend in einer neuen Form wiedergeben (Dekodierung). Frühe Anwendungsfälle für Transformer, wie beispielsweise die Sprachübersetzung, sind Beispiele hierfür.

Die Flexibilität des Transformers ermöglichte eine über Texte hinausgehende Erweiterung. Für den Bereich Computer Vision entwickelten Wissenschaftler den Vision Transformer (ViT), der Bilder in Patches unterteilt, die wie Tokens funktionieren. Für die Bilderstellung kombinieren Systeme wie DALL·E Text-Encoder und Bild-Decoder, wobei häufig Diffusions- oder Autoencoder-Techniken zum Einsatz kommen. Später entstanden multimodale Frameworks, die es einer einzigen Architektur ermöglichten, je nach angeschlossenen Encodern und Decodern Text, Bilder, Audio- oder Videoinhalte zu generieren. GPT-4 von Open AI und Gemini von Google sind Beispiele für solche multimodalen Systeme.

Wichtige Meilensteine

  • 2017: Ein Paper über Transformer beschreibt den Aufmerksamkeitsmechanismus im Zusammenhang mit Encoder-Decoder-Modellen
  • 2018: Einführung von GPT-1 (Decoder-only) und BERT (Encoder-only) für generativen Text und tiefgreifendes Verständnis; BERT ermöglicht Vortraining in großem Umfang und Transferlernen innerhalb der natürlichen Sprachverarbeitung
  • 2019 bis 2020: GPT-2, T5 und GPT-3 zeigen, dass die Skalierung von Parametern und Daten die generative Fähigkeit erheblich verbessert
  • 2021: DALL·E und andere Modelle zur Bildgenerierung steigern die visuelle Kreativität.
  • 2022 bis 2023: GPT-3.5 unterstützt die frühe Version von ChatGPT; GPT-4, Gemini und andere multimodale Systeme unterstützen gemischte Eingaben (Dokumente, Bilder, Tabellen) und erzeugen vielfältige Ausgaben.
  • 2024 bis 2025: Die rasche Verbreitung offener und proprietärer Modelle, darunter kosteneffiziente Systeme wie DeepSeek, treibt die Entwicklung von noch umfangreicheren und vielseitigeren Agenten voran.
     

Generative KI, KI-Agenten und Agentic AI

Generative KI: Bezeichnet große Sprachmodelle (Large Language Models, LLMs) oder große Bildmodelle, die mit umfangreichen Datenmengen trainiert wurden – mit Milliarden Parametern und großen Datensätzen. Beispiele sind GPT-4, GPT-4 mini von OpenAI oder LLaMA 3.

  • Wichtigste Fähigkeit: Erstellung neuer Inhalte (Text, Bilder, Audio, Videobilder), wann immer ein Benutzer einen Prompt eingibt
  • Eigenschaften: Reaktiv – produziert nur dann eine Ausgabe, wenn ein Prompt eingegeben wurde
  • Verwendung: Entwicklung von Chatbots, Erstellung von Bildern, Videos oder Texten. Entwickler nutzen häufig Bibliotheken wie LangChain, LangGraph, LlamaIndex oder sogar direkte OpenAI-APIs, um diese generativen Anwendungen zu erstellen.

KI-Agenten

Von einem KI-Agenten sprechen wir, wenn ein LLM (oder ein ähnliches Modell) mit externen Tools oder Datenquellen verbunden ist und dadurch eine bestimmte Aufgabe ausführen kann.

  • Beispiel: Auf die Frage „Was gibt es heute Neues auf dem Gebiet der KI“ kann ein einfaches LLM nicht antworten, weil es nur mit Daten aus der Vergangenheit trainiert wurde. Wenn es jedoch so konfiguriert ist, dass es ein Tool heranzieht, beispielsweise eine Internet-Such-API wie Tavily, kann es aktuelle Informationen abrufen, diese zusammenfassen und ein Ergebnis ausgeben.
  • Die Grundidee dahinter: Ein KI-Agent kombiniert die Schlussfolgerungen eines LLM mit externen Aktionen wie API-Aufrufen oder Datenbankabfragen, um eine konkrete Aufgabe zu lösen.

Agentic AI

Agentic AI-Systeme gehen noch einen Schritt weiter. Sie koordinieren mehrere KI-Agenten, die zusammenarbeiten, oft mit menschlichem Feedback, um ein komplexes Ziel zu erreichen.

  • Ablaufbeispiel: Aus einem YouTube-Video einen Blogpost erstellen
  1. Agent 1 extrahiert das Transkript
  2. Agent 2 erstellt den Titel
  3. Agent 3 verfasst eine Beschreibung
  4. Agent 4 formuliert ein Fazit
    Jeder Agent kann dabei sein eigenes LLM und einen eigenen Prompt verwenden. Die Agenten können ihre Ausgaben untereinander austauschen (zum Beispiel den Titel von Agent 2 an Agent 3 weitergeben).
  • Eigenschaften: kooperativ. Mehrere Agenten kommunizieren miteinander, tauschen Zwischenergebnisse aus und führen einen Ende-zu-Ende-Workflow aus

Diese Schichten bauen aufeinander auf: Generative Modelle versorgen einzelne Agenten mit Informationen. Diese verbinden sich dann zu Agentic-AI-Systemen, die komplexe, automatisierte Arbeitsabläufe ausführen können.

Branchenexperten stellen Ihnen die neuesten KI-Trends vor

Während wir auf das Jahr 2026 zusteuern, setzt Künstliche Intelligenz ihre rasante Entwicklung fort und revolutioniert Geschäftsstrategien und ganze Branchen. Die Experten Thomas H. Davenport und Randy Bean benennen fünf wichtige Trends in den Bereichen KI und Data Science, die Führungskräfte unbedingt im Blick behalten sollten:

1. Vielversprechende Lösung oder überbewertet? Agentic AI verstehen

Agentic AI bezeichnet Systeme, die in der Lage sind, Aufgaben eigenständig auszuführen, wie beispielsweise Reservierungen vorzunehmen oder Transaktionen zu verarbeiten. Das Potenzial ist enorm, jedoch warnen Experten, dass diese Systeme oft auf Vorhersage-Algorithmen basieren, die anfällig für Fehler sind. Darum bleibt eine Überwachung durch Menschen unabdingbar, besonders in Szenarien, in denen viel auf dem Spiel steht. 

2. Die Effektivität von generativer KI messen

Immer mehr Unternehmen versuchen, die Vorteile generativer KI zu quantifizieren. Umfragen ergaben, dass 58 % der Daten- und KI-Verantwortlichen durch KI exponentielle Produktivitäts- oder Effizienzsteigerungen erzielen und 16 % dadurch Wissensarbeiter von Routineaufgaben entlasten konnten. Diese Entwicklung zeigt, wie wichtig es ist, über die Experimentierphase hinauszugehen, um einen konkreten geschäftlichen Mehrwert zu schaffen. 

3. Einführung einer datenorientierten Kultur

Allmählich etabliert sich eine klare Vorstellung davon, was ein datengesteuertes Unternehmen ist. Dazu gehören vor allem folgende Aspekte: die Einbindung von Daten in Entscheidungsprozesse, die Förderung einer Kultur, die Datenkompetenz wertschätzt, und die Gewährleistung, dass wichtige Daten im gesamten Unternehmen zugänglich und verwertbar sind. 

4. Die Herausforderungen unstrukturierter Daten bewältigen

Unstrukturierte Daten wie E-Mails, Social-Media-Beiträge und Multimedia-Inhalte stellen erhebliche Herausforderungen in Bezug auf die Speicherung, Analyse und Extraktion von verwertbaren Informationen dar. Unternehmen investieren in fortschrittliche KI-Techniken, um diese Daten besser zu verwalten und zu nutzen, denn sie erkennen darin einen Innovations- und Wettbewerbsvorteil. 

5. Klare Zuweisung von Verantwortlichkeiten im Bereich KI und Daten

Da KI eine zunehmend wichtige Rolle bei geschäftlichen Abläufen einnimmt, legen inzwischen viele Unternehmen die Rollen und Verantwortlichkeiten zur Steuerung und Überwachung ihrer KI-Projekte klarer fest. So werden beispielsweise Positionen wie die des Chief AI Officer geschaffen und KI-Strategien auf die allgemeinen Geschäftsziele abgestimmt.

Diese Informationen stammen aus neuesten Forschungsergebnissen und Expertenanalysen. Sie bieten Unternehmen eine Orientierung, wie sie das volle Potenzial von KI ausschöpfen und deren Komplexität bewältigen können. Indem sie diese Trends im Blick behalten, können Führungskräfte fundierte Entscheidungen treffen, die Innovationen und nachhaltiges Wachstum im KI-Zeitalter befördern.

Die Vorteile generativer KI

Generative KI verändert die Art und Weise, wie Menschen und Unternehmen an kreative Prozesse herangehen, Entscheidungen treffen oder mit Kunden interagieren.

Erhöhte Kreativität: Generative KI erweitert die menschliche Vorstellungskraft, indem sie Ideen, Texte, Bilder oder sogar Musik erstellt. So unterstützt sie Fachleute dabei, neue Konzepte zu entwickeln und zu verbessern.

Verbesserte (und schnellere) Entscheidungsfindung: KI-Systeme können große Datenmengen analysieren, Informationen zusammenfassen und Handlungsempfehlungen geben. So ermöglichen sie eine schnellere und besser fundierte Entscheidungsfindung als herkömmliche Verfahren.

Dynamische Personalisierung: Generative KI ermöglicht es, Produkte, Dienstleistungen und Erlebnisse in Echtzeit an individuelle Präferenzen anzupassen. Das fördert die Kundeninteraktion und -zufriedenheit.

Ständige Verfügbarkeit: Anders als menschliche Arbeitskräfte sind KI-Modelle kontinuierlich im Einsatz. Sie können rund um die Uhr unterstützen, Inhalte generieren oder Anfragen bearbeiten.

Generative KI für Unternehmen auf dem Vormarsch: Unternehmen setzen zunehmend auf generative KI, um Routineaufgaben zu automatisieren, Innovationen voranzubringen und strategische Initiativen umzusetzen. KI etabliert sich in der modernen Geschäftswelt als unverzichtbares Instrument für Wachstum.

Anwendungsfälle für generative KI

Sportzusammenfassungen und -analysen

In der Formel E fasst KI heute stundenlange Audiokommentare zu prägnanten, zweiminütigen Podcasts zusammen. Diese beinhalten relevante Fahrerstatistiken und Hintergrundinformationen zur Saison, sodass Fans auf dem Laufenden bleiben können, ohne das gesamte Rennen verfolgen zu müssen. In ähnlicher Weise nutzen der englische Fußballverband und die Major League Baseball KI, um historische Daten für die Talentsuche und die Spielerentwicklung zu analysieren oder um Spielstrategien zu optimieren. Fans, TV-Sender und Teams können in Echtzeit auf wichtige Statistiken und Trends zugreifen. KI eröffnet also ganz neue Möglichkeiten, Sportdaten zu nutzen.

Beschleunigung der medizinischen Forschung

Generative KI revolutioniert die medizinische Entwicklung, indem sie in der biologischen Forschung versteckte Muster erkennt. Unternehmen wie BenSci nutzen künstliche Intelligenz, um Korrelationen in der Arzneimittelforschung zu erkennen, wodurch sowohl Zeit als auch Kosten eingespart und Behandlungen beschleunigt werden. Der brasilianische Gesundheitsdienstleister Dasher setzt KI ein, um Anomalien in medizinischen Tests zu erkennen und Ärzten und Patienten die Ergebnisse schneller zur Verfügung zu stellen. Diese Anwendungen zeigen, wie KI die Patientenversorgung verbessern und medizinische Innovationen beschleunigen kann.

Die geschäftliche Produktivität steigern

Unternehmen nutzen KI, um große Mengen an Informationen zu organisieren und einen Mehrwert daraus zu generieren. Augment beispielsweise integriert KI in Kalender, E-Mails und Notizen, sodass Mitarbeiter wichtige Informationen schnell abrufen können. Das beschleunigt die Entscheidungsfindung und steigert die betriebliche Effizienz.

Vereinfachte Patentprüfung

Das Patentamt der USA steht bei der Prüfung tausender Patentanmeldungen vor enormen Herausforderungen. KI-Modelle, die anhand historischer Patente trainiert wurden, können den Stand der Technik und Überschneidungen zwischen einzelnen Anmeldungen aufdecken, wodurch der Prüfungsprozess beschleunigt und präziser wird.

Zusammenführung von Arbeitsuchenden und Stellenangeboten

Das Compass-System von Tabiya nutzt Künstliche Intelligenz, um Jugendliche bei der Stellensuche zu unterstützen. Über eine sprachbasierte Schnittstelle geben Arbeitsuchende Präferenzen wie Standort, Gehalt und Kompetenzen ein. Die KI gleicht die Daten mit passenden Stellenangeboten ab, was die Suche beschleunigt und deutlich einfacher macht.

KI in der Landwirtschaft

Climate FieldView sammelt und analysiert landwirtschaftliche Daten zur Beschaffenheit des Bodens, zum Einsatz von Düngemitteln, zur Niederschlagsmenge und zu Ernteerträgen. KI liefert Landwirten verwertbare Erkenntnisse, die dazu beitragen, die Produktivität zu steigern, die Gesundheit der Pflanzen zu verbessern und die Nachhaltigkeit zu erhöhen. Durch die Kombination von Technologie und landwirtschaftlichem Fachwissen eröffnet KI der Landwirtschaft eine neue Dimension.

T-Systems AI SmartChat – Next-gen generative AI experience

T-Systems AI Foundation Services and SmartChat enable organizations to design a secure, future-proof AI strategy. The platform integrates effortlessly with existing systems, automates requests, and ensures GDPR-compliant interactions for customer engagement and internal workflows. Let’s build your AI future together.

Herausforderungen, Grenzen und Risiken

Halluzinationen und andere Fehler

Eine spezielle Problematik bei generativer KI ist ihre Neigung zu „Halluzinationen“. Damit ist gemeint, dass die KI Informationen ausgeben kann, die komplett falsch oder irreführend sind. Beispielsweise könnte ein Modell eine historische Tatsache, ein Zitat oder eine Lösung vorschlagen, die zwar plausibel erscheint, aber leider nicht stimmt. Auch wenn die Ergebnisse überzeugend erscheinen, sollten Nutzer stets kritisch bleiben und wichtige Sachverhalte überprüfen. Halluzinationen bergen besonders in den Bereichen Medizin, Finanzen und Recht ein hohes Risiko, denn hier können Fehler ernste Konsequenzen haben.

Inkonsistente Ausgaben

Generative KI liefert bei gleichen Eingaben nicht immer gleiche Ausgaben. Ein Nutzer kann dieselbe Frage zweimal stellen und zwei abweichende oder völlig unterschiedliche Antworten erhalten. Diese Inkonsistenz kann für Unternehmen, die zuverlässige und wiederholbare Informationen brauchen, ein Problem darstellen. Tests und Validierungen werden dadurch schwieriger, besonders dann, wenn die Ausgaben für Entscheidungen oder automatisierte Arbeitsabläufe herangezogen werden sollen.

Bias

KI-Modelle sind nur so unvoreingenommen wie die Daten, mit denen sie trainiert werden. Reale Daten enthalten allerdings häufig historische, soziale oder kulturelle Verzerrungen (Bias). Diese Verzerrungen können sich unbeabsichtigt in den Ergebnissen niederschlagen und Personalentscheidungen, Kundeninteraktionen oder die Erstellung von Inhalten beeinflussen. Strategien zur Sensibilisierung und Risikominderung, wie beispielsweise die Nutzung vielfältiger Datensätze und menschliche Überprüfung, sind unerlässlich, um unbeabsichtigte Verzerrungen zu reduzieren.

Mangelnde Erklärbarkeit und Metriken

Anders als herkömmliche Software funktioniert generative KI wie eine Black Box – es ist schwer nachvollziehbar, warum sie eine bestimmte Ausgabe generiert hat. Für Unternehmen erschwert diese mangelnde Erklärbarkeit die Einhaltung von Vorschriften, die Auditierung und die Entscheidungsfindung. Ohne klare Metriken, mit denen sich Genauigkeit, Qualität oder Zuverlässigkeit bewerten lassen, ist es für Unternehmen schwierig, sich voll und ganz auf die Ergebnisse der KI zu verlassen. 

Gefahren für die Sicherheit, den Datenschutz und geistiges Eigentum

Generative KI arbeitet mit sehr großen Datenmengen, die sensible oder geschützte Informationen enthalten können. Sind diese nicht hinreichend abgesichert, kann es zu einer Offenlegung oder unbeabsichtigten Verbreitung vertraulicher oder urheberrechtlich geschützter Inhalte kommen. Unternehmen müssen robuste Sicherheits- und Datenschutzmechanismen einrichten, um geistiges Eigentum zu schützen und die Einhaltung von Vorschriften wie der DSGVO sicherzustellen.

Deepfakes

Die Möglichkeit, mit KI täuschend echt wirkende Audio-, Video- oder Bilddateien, sogenannte Deepfakes, zu generieren, birgt erhebliche Risiken. Diese synthetischen Medien können missbraucht werden, zum Beispiel, um sich als eine andere Person auszugeben, die öffentliche Meinung zu manipulieren oder einen Betrug zu begehen. Zwar gibt es für Deepfakes durchaus legitime Anwendungsbeispiele, etwa in der Unterhaltungsbranche oder im Schulungsbereich. Doch aufgrund des hohen Missbrauchspotenzials sind ethische Richtlinien und effektive Erkennungstechnologien in diesem Bereich unverzichtbar.

Eine kurze Geschichte der generativen KI

Um die Entwicklungsgeschichte von generativer KI nachzuzeichnen, müssen wir etwas weiter in die Vergangenheit zurückblicken. Generative KI ist nämlich nicht über Nacht entstanden – ihre Wurzeln reichen Jahrzehnte zurück. Die Entwicklung hat viele Phasen durchlaufen, ehe die Technologie zu dem leistungsstarken kreativen Motor wurde, der sie heute ist. Sie ist der Teilbereich der KI, der aus vorhandenen Daten lernt und neue Inhalte daraus generiert, zum Beispiel Texte, Bilder, Musik oder sogar Videos. Im Folgenden wollen wir die wichtigsten Kapitel der Entstehungsgeschichte betrachten.

Die Anfänge: Theorie, Rechenvorgänge und generative Kunst

Die grundlegenden Denkansätze zur Künstlichen Intelligenz reichen in eine Zeit zurück, lange bevor „KI“ zu einem allgemein bekannten Begriff wurde. 1950 beschäftigte sich Alan Turing mit der Frage, ob Maschinen denken können. Damit stellte er zugleich die Grundsatzfrage, wie Intelligenz überhaupt zu definieren ist. In den 1950er- und 1960er-Jahren kamen erste Ideen zu neuronalen Netzen auf (zum Beispiel das Perzeptron), jedoch schränkten die Grenzen der Hardware und der Datennutzung die praktischen Anwendungsmöglichkeiten ein. Parallel dazu erlebte die generative Kunst mit ersten Computergrafiken eine Blütezeit. Georg Nees erstellte Ende der 1960er-Jahre generative Computergrafiken unter Verwendung prozeduraler Algorithmen. Der Code erzeugte dabei neuartige visuelle Formen. Diese Experimente waren die Vorboten dessen, was man später als „generative Systeme“ bezeichnen würde. 

Einfache Chatbots und regelbasierte Systeme

Anfang der 1960er-Jahre wurde ELIZA entwickelt und 1966 vorgestellt. Das Programm von Joseph Weizenbaum ahmte therapeutische Gespräche mithilfe von Mustererkennung und vorlagenbasierten Antworten nach. Obwohl es nach heutigen Maßstäben als primitiv gilt, wird es häufig als eines der ersten generativen Systeme im Bereich der natürlichen Sprache bezeichnet. Es konnte zwar keine Bedeutung „verstehen“, aber seine Fähigkeit, Antworten zu generieren, inspirierte frühe Konzepte einer dialogorientierten KI.

In den 1970er- und 1980er-Jahren blieb generative KI weitgehend symbolisch oder regelbasiert, eingeschränkt durch Domänenwissen und mangelnde Lernfähigkeit. Als die anfänglichen Erwartungen nicht erfüllt werden konnten, bremste der sogenannte KI-Winter – eine Phase rückläufiger Finanzmittel und nachlassenden Interesses – den Fortschritt. 

Einführung lernbasierter Ansätze

In den 1990er-Jahren und nach der Jahrtausendwende wurden wichtige Grundlagen geschaffen. Fortschritte im Bereich der Rechenleistung, größere Datensätze und verbesserte Algorithmen ließen das Interesse an KI und maschinellem Lernen wieder aufleben. Zu den wichtigsten Neuerungen zählten Recurrent Neural Networks (RNNs) und Long Short-term Memory (LSTM)-Architekturen, die Sequenzen verarbeiten und den Kontext über einen längeren Zeitraum hinweg speichern können. Diese waren grundlegend für die Generierung von Text- oder Sequenzdaten. 

Die Ära der großen generativen Modelle

In den vergangenen Jahren hat generative KI ihren Durchbruch erlebt. Modelle wie die GPT-Serie (Generative Pretrained Transformer) haben die Generierung natürlicher Sprache revolutioniert: GPT-1, GPT-2, GPT-3 und die neueste Version GPT-5 mit Bildgenerierungsfunktionen brachten bahnbrechende Neuerungen durch größere Modelle. Sie werden mithilfe riesiger Datensammlungen trainiert und kombinieren Vortraining und Feintuning. Zugleich ermöglichen Tools wie DALL·E, Stable Diffusion, Midjourney und Text-zu-Video-Modelle die Nutzung von generativer KI für die Erstellung von Bildern und Videos. Multimodale Modelle, die Text, Bilder, Audioinhalte oder sogar Tabellenkalkulationen verarbeiten können, zeigen eindrucksvoll, dass generative KI nicht mehr auf einen einzigen Bereich beschränkt ist. Die zukünftige Entwicklung zeichnet sich ab: effizientere Modelle, On-Device Generative AI, eine bessere Abstimmung und Sicherheit und eine noch gehaltvollere multimodale Synthese. Die nächste Herausforderung besteht darin, generative Systeme vertrauenswürdiger und kontrollierbarer zu machen und noch tiefer in reale Arbeitsabläufe einzubetten.

Der Unterschied zwischen Maschinellem Lernen und Künstlicher Intelligenz

IM-TI-110

Künstliche Intelligenz (KI) bezeichnet das übergeordnete Konzept der Entwicklung von Maschinen, die Aufgaben ausführen können, für die normalerweise menschliche Intelligenz erforderlich ist. Sie umfasst alle Bereiche, vom Verstehen natürlicher Sprache bis hin zu visueller Wahrnehmung, Entscheidungsfindung und Lösung komplexer Probleme. Beispiele sind etwa ein virtueller Finanzassistent, der Fragen von Mitarbeitern zu Unternehmensrichtlinien beantworten kann, oder ein Kundenservice-Bot, der Tausende von Anfragen gleichzeitig bearbeitet. Beides sind Beispiele für KI in der Praxis, da sie menschenähnliches Denken und Reagieren nachahmen.

Maschinelles Lernen (ML) fügt sich ins größere KI-Universum als einer der Hauptwege ein, wie wir menschenähnliche Intelligenz erreichen. ML-Systeme identifizieren Muster in großen Datenmengen und nutzen diese, um Vorhersagen oder Entscheidungen zu treffen, ohne dass ein Programmierer jede einzelne Regel festlegen muss. Beispielsweise kann ein ML-Modell historische Finanzdaten auf ungewöhnliche Ausgaben hin überprüfen oder Millionen von medizinischen Scans analysieren, um frühe Anzeichen einer Erkrankung zu finden. Im Laufe der Zeit werden diese Modelle besser, da sie mit immer mehr Daten konfrontiert werden.

Man kann sich das Ganze auch so vorstellen: KI ist das Ziel (Maschinen, die intelligent „denken und handeln“), während ML das Werkzeug ist, um dieses Ziel zu erreichen. Techniken wie Deep Learning, neuronale Netze und Reinforcement Learning fallen alle unter den Begriff ML. Sie ermöglichen es modernen KI-Systemen wie zum Beispiel generativen Modellen, die realistische Bilder erstellen, oder fortschrittlichen Chatbots, die komplexe Unternehmensdokumente zusammenfassen, sich kontinuierlich zu verbessern. Dafür ist keine Umprogrammierung für jedes neue Szenario erforderlich..

Wie funktionieren textbasierte Machine-Learning-Modelle und wie werden sie trainiert?

Machine-Learning-Modelle sind Systeme, die Muster in Daten erkennen und dann Vorhersagen oder Entscheidungen zu neuen, unbekannte Eingaben treffen. Man kann sich das vorstellen wie Schüler, die aus Beispielen lernen: Sobald sie genug Erfahrung gesammelt haben, können sie Sachverhalte verallgemeinern und auf neue Fragestellungen anwenden.

Der Trainingsprozess umfasst mehrere Schritte:
 

1. Datenerhebung und -aufbereitung

Ganz am Anfang steht die Sammlung einer großen Menge von Daten. Dies können Textdokumente, Bilder, Sensorwerte, Finanzunterlagen oder Daten aus jedem anderen beliebigen Bereich sein. Dann folgt die Datenbereinigung: Fehlerbeseitigung, Ergänzung fehlender Werte, Normalisierung oder Standardisierung von Formaten und Umwandlung von Rohdaten in eine Form, die das Modell verarbeiten kann.

2. Auswahl einer Algorithmus- oder Modellarchitektur

Je nach Aufgabe (Vorhersage, Klassifizierung, Generierung) wählen Sie einen Modelltyp aus: Entscheidungsbäume, Support-Vektor-Maschinen, neuronale Netze usw. Für Text- oder Sprachaufgaben nutzen moderne Systeme häufig Architekturen wie Transformer. Ein Modell verfügt über zahlreiche interne „Regler“ oder Parameter (manchmal auch als Gewichtungen bezeichnet), die während des Trainings angepasst werden.

3. Training/Optimierung

Man gibt aufbereitete Daten in das Modell ein und fordert es auf, Vorhersagen zu treffen. Die „korrekten Antworten“ (oder Ground Truth) sind bekannt. Das Modell gleicht seine Vorhersagen mit den richtigen Antworten ab und berechnet eine Kennzahl für die Abweichung (Loss). Anschließend passt es interne Parameter an, um die Abweichung zu minimieren. Dieser Vorgang wiederholt sich viele Male über viele Datenstapel hinweg. Mit der Zeit werden die Vorhersagen des Modells immer präziser.

4. Validierung und Tests

Um zu überprüfen, ob das Modell tatsächlich allgemeine Regeln gelernt hat (und nicht nur Daten „auswendig gelernt“ hat), werden beim Training einige Daten zurückgehalten. Dann überprüft man, wie gut das Modell mit diesem unbekannten Datensatz zurechtkommt. Kennzahlen wie Genauigkeit, Trefferquote, Recall oder mittlere Vorhersagefehler geben Aufschluss darüber, wie zuverlässig das System funktioniert. Ist die Performance schlecht, geht man einen Schritt zurück und nimmt Anpassungen vor: mehr Daten, eine andere Architektur, Regularisierung usw.

5. Anwendung und laufendes Training

Ist das Ergebnis zufriedenstellend, wird das Modell in eine Anwendung integriert, beispielsweise in einen Chatbot, ein Empfehlungs- oder ein Prognosetool. Aber die Welt steht bekanntlich nicht still: Es gibt immer wieder neue Daten, Muster verändern sich oder die Performance des Modells offenbart Verbesserungsbedarf. Man muss den Output also ständig überwachen, neue Daten sammeln und das Modell immer weiter trainieren und optimieren, um es auf dem neuesten Stand zu halten.

Letztendlich ist ein Machine-Learning-Modell kein statisches Programm, sondern ein System, das sich anhand neuer Daten immer weiter verbessert. Wie verlässlich, ethisch und brauchbar dieses System ist, hängt in hohem Maße von der Qualität der Trainingsdaten, den Designentscheidungen der Entwickler und der fortlaufenden Systempflege ab.

Die Daten-Dividende: Generative KI befeuern

Die bemerkenswerten Fähigkeiten von generativer KI, wie das Verfassen von Texten, das Erstellen von Bildern, das Entwerfen von Produkten und die Unterstützung von Forschungsaufgaben, basieren alle auf Daten. Jede Erfolgsgeschichte, vom Chatbot für das Finanzcontrolling von T-Systems über medizinische Meilensteine bis hin zur Echtzeit-Sportanalyse, beginnt mit einer umfangreichen Sammlung gut aufbereiteter Daten. Ein Modell zu trainieren, bedeutet, es mit vielfältigen, hochwertigen Beispielen zu füttern, damit es Muster erlernen kann. Dabei ist eine sorgfältige Validierung erforderlich, um die Genauigkeit der Ergebnisse zu gewährleisten und Risiken wie Verzerrungen, Halluzinationen und Datenschutzverletzungen zu minimieren. Neue Architekturen wie Transformer, Diffusionsmodelle, VAEs und GANs bauen darauf auf und können nur so gut sein wie die zugrundeliegenden Daten. Eines ist klar: Unternehmen, die ihre Datensätze sorgfältig auswählen, schützen und kontinuierlich aktualisieren, haben einen entscheidenden Vorteil. Indem sie Daten wie eine erneuerbare Ressource behandeln, die auf ethische Aspekte geprüft, vor Missbrauch geschützt und kontinuierlich vielfältiger wird, können Unternehmen und Wissenschaftler generative KI zu einem zuverlässigen, innovativen und zukunftsfähigen Werkzeug machen.

FAQ

1. Was ist generative KI?

Generative KI ist ein Teilbereich der Künstlichen Intelligenz, der Muster in umfangreichen Datensätzen erkennt, sich diese merkt und aus den Informationen neue Inhalte wie Texte, Bilder, Musik, Videos oder Computercode in einem ähnlichen Stil erstellt. Statt Daten lediglich zu analysieren oder zu klassifizieren, erzeugt generative KI etwas Neues.

2. Ist ChatGPT eine generative KI?

Ja. ChatGPT ist ein GenAI-System, das auf großen Sprachmodellen basiert, die Wörter und Sätze anhand von Trainingsdaten vorhersagen. Texte klingen dadurch wie von einem Menschen verfasst.

3. Welche Beispiele für generative KI gibt es?

Bekannte Beispiele sind ChatGPT für die Texterstellung, DALL·E und Midjourney für die Erstellung von Bildern, GitHub Copilot für Code-Vorschläge und Runway für die Videoerstellung.

4. Was ist der Unterschied zwischen generativer und normaler KI?

Künstliche Intelligenz bezeichnet die Gesamtheit aller Computer, die lernen und schlussfolgern können. Bei traditioneller KI liegt der Fokus auf Aufgaben wie der Klassifizierung von Daten, dem Erstellen von Vorhersagen oder dem Befolgen vordefinierter Regeln. Generative KI ist ein Teilbereich, bei dem es um die Erstellung neuer Inhalte geht und nicht nur darum, Informationen zu identifizieren oder zu klassifizieren. Generative KI geht über einfaches Analysieren hinaus und erstellt neue Inhalte wie Artikel, Grafiken oder synthetische Daten.

5. Welche Arten von generativer KI gibt es?

Die drei Hauptkategorien sind die Textgenerierung unter Verwendung großer Sprachmodelle, die Bild- und Videogenerierung anhand von Diffusions- oder GAN-Modellen sowie die Generierung von Audio- oder Musikinhalten im Bereich Sprachsynthese und Sounddesign.

6. Was ist der Unterschied zwischen KI und LLMs?

Ein großes Sprachmodell (Large Language Model, LLM) ist ein bestimmter Ansatz innerhalb der generativen KI, dessen Fokus auf der Texterstellung liegt. Generative KI deckt einen breiteren Bereich ab, der auch Bilder, Audio und Video einschließt.

7. Was ist der Unterschied zwischen generativer KI und OpenAI?

Generative KI bezeichnet die Technologie an sich. OpenAI ist das Unternehmen, das führende GenAI-Systeme wie ChatGPT und DALL·E entwickelt.

8. Was ist der Unterschied zwischen GenAI und ChatGPT?

GenAI ist die Kurzbezeichnung für den gesamten Bereich der generativen Künstlichen Intelligenz. ChatGPT ist ein Produkt von OpenAI, das innerhalb dieser breiten Kategorie auf konversationellen Text spezialisiert ist.

9. Welche anderen Bezeichnungen gibt es für generative KI?

Generative KI wird auch als GenAI, Kreative KI oder Generative Modellierung bezeichnet.

10. Ist Copilot eine generative KI?

Ja. GitHub Copilot nutzt GenAI-Modelle, um in Echtzeit Programmcode vorzuschlagen und zu erstellen.

11. Ist generative KI das Gleiche wie KI?

Generative KI ist ein spezialisiertes Teilgebiet der Künstlichen Intelligenz. Jede generative KI ist also KI im allgemeinen Sinn, aber nicht jede KI ist generativ.

12. Was ist generative KI für Einsteiger?

Einsteigermodelle sind Computermodelle, die anhand umfangreicher Datensätze trainiert wurden und automatisch neue Texte, Bilder, Töne oder Programmcode erstellen können. Anwender können ganz einfach neue Inhalte generieren, indem sie Prompts eingeben, ohne selbst etwas programmieren zu müssen.

13. Welche ist derzeit die beste generative KI?

Beliebte GenAI-Tools sind zum Beispiel ChatGPT von OpenAI für die Texterstellung, DALL·E und Midjourney für die Bildgenerierung und Anthropic Claude sowie Google Gemini für fortschrittliche Sprachanwendungen. Welches Tool am besten geeignet ist, hängt davon ab, ob Unterstützung beim Schreiben, bei der Erstellung von Grafiken oder bei der Codegenerierung gewünscht ist.

Relevante Lösungen

Wir freuen uns auf Ihr Projekt!

Wir bringen Sie gern mit den richtigen Experten zusammen und beantworten Ihre Fragen, wenn es darum geht, Ihre Digitalisierungsvorhaben zu planen, umzusetzen und zu warten. Kontaktieren Sie uns.

Besuchen Sie t-systems.com außerhalb von Germany? Besuchen Sie die lokale Website für weiterführende Informationen und Angebote für Ihr Land.