Freitag, 24. April 2026

KI

Kampf der KI Giganten: ChatGPT vs. Gemini im Duell

Die Welt der Künstlichen Intelligenz (KI) ist ein dynamisches und sich ständig weiterentwickelndes Feld, das regelmäßig bahnbrechende Innovationen hervorbringt. Zwei der neuesten und beeindruckendsten Beiträge…

Von Wolfgang Walk

09. Jan. 20245 Min. Lesezeit

Kampf der KI Giganten: ChatGPT vs. Gemini im Duell

Die Welt der Künstlichen Intelligenz (KI) ist ein dynamisches und sich ständig weiterentwickelndes Feld, das regelmäßig bahnbrechende Innovationen hervorbringt. Zwei der neuesten und beeindruckendsten Beiträge in diesem Bereich sind ChatGPT 4 von OpenAI und Gemini ProVision von Google. Diese beiden KI-Modelle stehen an der Spitze der technologischen Fortschritte und bieten einzigartige Funktionen und Fähigkeiten, die sie von ihren Vorgängern unterscheiden. In diesem Artikel werden wir einen tieferen Einblick in beide Modelle geben, ihre Stärken und Schwächen analysieren und sie in einem direkten Vergleich gegenüberstellen. Unser Ziel ist es, ein umfassendes Bild davon zu vermitteln, wie ChatGPT 4 und Gemini ProVision die Landschaft der Künstlichen Intelligenz prägen und was ihre Entwicklung für die Zukunft der Technologie bedeutet.

Technischer Vergleich von ChatGPT4 und Gimini Pro Vision

Schauen wir uns zunächst die technischen Details der beiden Kontrahenten an.

Kriterium ChatGPT 4 Gemini Pro Vision
Entwickler OpenAI Google (inkl. DeepMind)
Modelltyp Multimodal, Large Language Model Multimodal, Large Language Model
Eingabe Text, Bilder Text, Bilder, Videos
Ausgabe Text Text
Einführungsdatum März 2023 Dezember 2023
Kontextfenster 8,192 und 32,768 Tokens 32,768 Tokens
Spezialisierungen Textvorhersage, Menschliche Ausrichtung Multimodale Aufgaben wie visuelles Verstehen, Klassifizierung, Zusammenfassung
Einsatzbereiche Textvorhersage, Web-Suche, Bildgenerierung Visuelle Informationsrecherche, Objekterkennung, digitales Content-Verständnis
Besondere Merkmale Systemnachrichten für Tonauswahl und Aufgaben Effiziente Ausführung auf einer Vielzahl von Systemen
Training Zwei-Stufen-Training: Token-Vorhersage und Reinforcement Learning von menschlichem Feedback Auf multimodalen und multilingualen Daten wie Webdokumenten, Büchern, Code und inklusive Bild-, Audio- und Videodaten trainiert
Bekannte Herausforderungen Halluzinationen, mangelnde Transparenz in Entscheidungsprozessen
Vergleich der beiden Sprachmodelle mit öffentlich zugänglichen Informationen (Stand Januar 2024)

Bitte beachten Sie, dass einige Details, insbesondere zu den technischen Spezifikationen von Gemini Pro Vision, nicht vollständig verfügbar sind. Die Informationen zu beiden Systemen basieren auf den aktuell verfügbaren Quellen.

Der Umfassende Frage-Antwort-Test

In unserem umfangreichen Test haben wir die beiden Konkurrenten gegeneinander antreten lassen. Das Ergebnis ist eindeutig, wenn auch knapp.

Fragekategorie Beispiele ChatGPT4 GEMINI Pro Vision
Verständnis von Kontext und Nuancen Was bedeutet der Ausdruck “Auf Wolke sieben schweben”? Ok Ok
  Was bedeutet “jemandem die Daumen drücken”? Ok Ok
  Was bedeutet es, wenn jemand “kein Blatt vor den Mund nimmt”? Ok Ok
  Was bedeutet “den Faden verlieren”? Ok Ok
Erzeugung kreativer Inhalte Kannst du ein Gedicht über den Frühling schreiben? Ok Ok
  Kannst du die Schritte zum Kochen von Risotto erklären? Ok FALSCH
  Gebe einen Namensvorschlag für einen altdeutschen Namen. Ok Ok
Fähigkeit, auf aktuelle Ereignisse zu reagieren Wer ist 2023 Bundeskanlzer gewesen? Ok FALSCH
  Welche Mannschaft gewann die Weltmeisterschaft im Fußball 2022 Ok Ok
  Welche Wirtschaftsordnung hat die Bundesrepublik Deutschland? Ok Ok
Fähigkeit, komplexe  Anfragen zu bearbeiten (Logik) Ich habe T-Shirts gewaschen. Ein T-Shirt braucht in der Sonne 2 Stunden um zu trocknen. Wie lange brauchen 5 T-Shirts? Ok (++) Ok (++)
  Michael, Marie und Jens treten in einem sportlichen Wettkampf gegeneinander an. Die Frage ist, wer ist am schnellsten? Michael ist schneller als Jens, Marie ist schneller als Michael. Wer ist am schnellsten? Ok Ok
  Ergänze die Buchstabenfolgen. A C E G I K M ? FALSCH Ok
  Ergänze die Buchstabenfolgen. D C A B H G E F ? FALSCH FALSCH
Mathematik Wurzel aus 3. Ok Ok
  100+20-6*5(5-2) Ok Ok
  3^2+4-6^(4-2)-5 Ok Ok
Programmierung Erstelle ein Python Script, dass die Zahlen von 0 bis 100 ausgibt. Ok Ok
  Erstelle ein Programm in Python, dass einen Raketenstart mit einen Countdown von 10 abwärtst zählt. Die Zahlen sollen jede Sekunde ausgegeben werden. Ok Ok
  Erstelle ein Spiel in Python nach dem Vorbild des Klassikers “Snake”. Ok FALSCH
   Anzahl richtiger Antworten 17 15
   Prozent 85% 75%
Testergebnisse

Von 20 möglichen Punkten hat ChatGPT 4 genau 17 Fragen richtig beantwortet. Insbesondere bei den Logikrätseln machte ChatGPT erstaunlich viele Fehler. Dies zeigt auch die derzeitigen Grenzen der verschiedenen Modelle. Überraschend war jedoch Gemini. Bei den Logikrätseln konnte Gimini eine Frage mehr richtig beantworten.

Die Frage nach dem Bundeskanzler in Deutschland im Jahr 2023 wurde von Gimini mit Verweis auf den Datenstand von 2021 verneint. Überraschenderweise konnte er aber den Gewinner der Fußball-Weltmeisterschaft 2022 korrekt nennen.

Die Antwort auf die Frage nach einem Risotto-Rezept ist natürlich Geschmackssache, aber insbesondere die Menge des Olivenöls sowie des Knoblauchs wäre stark übertrieben.

Hinweise zum Test:

ChatGPT4 wurde direkt in der WebUI verwendet. Weitere Einstellmöglichkeiten sind nicht möglich (z.B. Temperatur, Tokenanzahl etc.). Gimini wurde in der Google Cloud Vertex AI verwendet. Dies ähnelt dem Playground von OpenAI. Die Einstellungen wurden bis auf die Temperatur (1) auf die voreinstellungen gelassen.

Einstellungen von Gimini in VertexAI für den Test

Eine spannende Möglichkeit kann derzeit nicht aktiviert werden:

Funktion Fundierung (noch nicht verfügbar)

Durch die Option Fundierung könnten Antworten in der Zukunft “sicherer” und valider werden.

Zusammenfassung

In der Welt der künstlichen Intelligenz zeichnen sich sowohl ChatGPT 4 als auch Gemini als Multimodal Large Language Models aus, die nicht nur Text und Bilder, sondern im Falle von Gemini auch Videos mit Bravour verarbeiten. ChatGPT 4, das im Frühling des Jahres 2023 sein Debüt feierte, brilliert mit der Fähigkeit, zwischen zwei Kontextfenstern zu wechseln – eine Flexibilität, die es von Gemini unterscheidet, das gegen Ende desselben Jahres mit einem einzigen, großzügigeren Kontextfenster auf den Markt kam.

Während ChatGPT 4 seine Stärken in der Textvorhersage und einer ausgeprägten Ausrichtung auf menschliche Interaktionen findet, beweist Gemini seine Finesse in der Bewältigung visueller Herausforderungen und der Verarbeitung von Informationen. Die Schulung von ChatGPT 4 umfasste einen zweistufigen Prozess, der von menschlicher Interaktion geprägt ist, im Gegensatz zu Gemini, das sein Wissen aus einer reichen Vielfalt von multimodalen und multilingualen Daten schöpft.

Eine eingehende Analyse in Form eines Frage-Antwort-Tests offenbarte, dass ChatGPT 4 mit einer Punktzahl von 85% die Nase vorn hatte, dicht gefolgt von Gemini mit 75%. Obwohl ChatGPT 4 bei einigen Logikaufgaben strauchelte, zeigte Gemini in diesem Bereich besondere Stärke und übertraf seinen Konkurrenten in einem Logikrätsel. Trotz eines Fehltritts bei der Identifikation des deutschen Bundeskanzlers von 2023 – ein Fehler, der aus der Anlehnung an Daten von 2021 resultierte – verblüffte Gemini mit der korrekten Benennung des Fußballweltmeisters von 2022.

Weitere spannende Test von verschiedenen Modellen werden folgen. Hier finden Sie die Gesamtübersicht!

Hätten Sie an das Ergebnis geglaubt? Womit hätten sie gerechnet? Diskutieren Sie diesen Artikel in den Kommentaren und auf den sozialen Netzwerken!