Skip to main content

Auswählen des richtigen KI-Modells für deine Aufgabe

Vergleiche die verfügbaren KI-Modelle in Copilot Chat, und wähle das beste Modell für deine Aufgabe aus.

Vergleich von KI-Modellen für GitHub Copilot

GitHub Copilot unterstützt mehrere KI-Modelle mit unterschiedlichen Funktionen. Vom gewählten Modell hängen Qualität und Relevanz der Antworten in Copilot Chat sowie der Codevervollständigungen ab. Einige Modelle bieten eine geringere Latenz, andere weniger Halluzinationen oder eine bessere Leistung bei bestimmten Aufgaben.

In diesem Artikel werden die verfügbaren Modelle verglichen und die Vorteile der einzelnen Modelle beschrieben. Dadurch kannst du dich für das Modell entscheiden, das am besten zu deiner Aufgabe passt. Weitere Informationen zum Vergleich verschiedener Modelle anhand von realen Aufgaben findest du unter Vergleichen von KI-Modellen bei Verwendung unterschiedlicher Aufgaben.

Die Auswahl des Modells hängt von deinem Anwendungsfall ab:

  • Ein ausgewogenes Verhältnis zwischen Kosten und Leistung bieten GPT-4.1 oder Claude 3.7 Sonnet.
  • Einen schnellen und kostengünstigen Support für grundlegende Aufgaben bieten o4-mini oder Claude 3.5 Sonnet.
  • Bei tiefergehenden Argumentationen und komplexen Programmierproblemen sind o3, GPT-4.5 oder Claude 3.7 Sonnet geeignet.
  • Bei multimodalen Eingaben und Echtzeitleistung sind Gemini 2.0 Flash oder GPT-4o geeignet.

Wenn du in der folgenden Liste auf einen Modellnamen klickst, erhältst du eine detaillierte Übersicht über die Vorteile und Anwendungsfälle des jeweiligen Modells.

Note

Die verschiedenen Modelle weisen unterschiedliche Multiplikatoren für Premiumanfragen auf, was sich auf den Verbrauch deines monatlichen Nutzungskontingents auswirken kann. Ausführliche Informationen findest du unter Info zu Premium-Anforderungen.

GPT-4o

OpenAI GPT-4o ist ein multimodales Modell, das Text und Bilder unterstützt. Es reagiert in Echtzeit und eignet sich für einfache Entwicklungsaufgaben und Konversationsprompts in Copilot Chat.

Im Vergleich zu früheren Modellen weist GPT-4o eine bessere Leistung in mehrsprachigen Kontexten und stärkere Funktionen beim Interpretieren visueller Inhalte auf. Es bietet die Leistung von GPT-4 Turbo bei geringerer Latenz und niedrigeren Kosten, was es zu einer guten Standardwahl für viele gängige Entwicklungsaufgaben macht.

Weitere Informationen zu GPT-4o findest du in der OpenAI-Dokumentation.

Anwendungsfälle

GPT-4o ist eine starke Standardoption für allgemeine Programmieraufgaben, die von Geschwindigkeit, Reaktionsfähigkeit und allgemeinem logischen Denken profitieren. Wenn deine Arbeit ein breites Wissen, schnelle Iterationen oder ein grundlegendes Codeverständnis erfordert, ist GPT-4o wahrscheinlich die beste Modellwahl.

Strengths

In der folgenden Tabelle werden die Vorteile von GPT-4o zusammengefasst:

AufgabeBeschreibungWarum GPT-4o eine gute Wahl ist
Erläuterung zum CodeErkennen der Funktion eines Codeblocks oder Durchlaufen von LogikSchnelle und genaue Erklärungen.
Codekommentare und -dokumentationenGenerieren oder Optimieren von Kommentaren und DokumentationenSchreibt klare und präzise Erklärungen.
FehleruntersuchungErstellen einer schnellen Erklärung oder eines Vorschlags für einen FehlerBietet schnelle Diagnoseerkenntnisse.
Generierung von CodeausschnittenGenerieren kleiner, wiederverwendbarer CodeteileLiefert schnelle und qualitativ hochwertige Ergebnisse.
Mehrsprachige PromptsArbeiten mit nicht englischen Prompts oder BezeichnernVerbessert das mehrsprachige Verstehen.
Bildbasierte FragenFragen nach einem Diagramm oder Screenshot (sofern Bildeingaben unterstützt werden)Unterstützt visuelle Begründungen.

Alternative Optionen

In der folgenden Tabelle wird zusammengefasst, für welche Aufgaben ein anderes Modell besser geeignet wäre:

AufgabeBeschreibungWarum ein anderes Modell besser geeignet sein kann
Mehrstufige Begründungen oder AlgorithmenEntwerfen komplexer Logik oder Aufschlüsseln mehrstufiger ProblemeGPT-4.5 oder Claude 3.7 Sonnet bieten ein besseres Denken in Schritten.
Komplexes RefactoringRefactoring großer Codebasen oder Update mehrerer zusammenhängender DateienGPT-4.5 bietet eine stabilere Behandlung von Kontext- und Codeabhängigkeiten.
Systemüberprüfung oder -architekturEingehendes Analysieren von Struktur, Mustern oder ArchitekturentscheidungenClaude 3.7 Sonnet oder GPT-4.5 bieten eine tiefergehende Analyse.

GPT-4.1

Note

GPT-4.1 in Copilot Chat befindet sich derzeit in der public preview. Änderungen sind vorbehalten.

Das neueste Modell von OpenAI, GPT-4.1, ist jetzt in GitHub Copilot und GitHub Models verfügbar, wodurch das neueste Modell von OpenAI in deinem Codierungsworkflow vorhanden sein wird. Dieses Modell übertrifft GPT-4o auf der ganzen Linie mit großen Gewinnen beim Codieren, Befolgen von Anweisungen und Verstehen von großem Kontext. Es verfügt über ein größeres Kontextfenster und bietet einen aktualisierte Wissensgrenzwert vom Juni 2024.

OpenAI hat GPT-4.1 für die praxisbezogene Verwendung optimiert, basierend auf direktem Entwicklerfeedback: Frontend-Codierung, weniger überflüssige Bearbeitungen, zuverlässige Formate, Einhaltung der Antwortstruktur und -sortierung, konsistente Toolnutzung und vieles mehr. Dieses Modell ist eine starke Standardoption für allgemeine Programmieraufgaben, die von Geschwindigkeit, Reaktionsfähigkeit und allgemeinem logischen Denken profitieren.

Anwendungsfälle

GPT-4.1 ist eine überarbeitete Version des GPT-4o-Modells von OpenAI. Dieses Modell ist eine starke Standardoption für allgemeine Programmieraufgaben, die von Geschwindigkeit, Reaktionsfähigkeit und allgemeinem logischen Denken profitieren. Wenn du an Aufgaben arbeitest, die umfassende Kenntnisse, schnelle Iteration oder grundlegendes Codeverständnis erfordern, führt GPT-4.1 umfangreiche Verbesserungen gegenüber GPT-4o durch.

Strengths

In der folgenden Tabelle werden die Vorteile von GPT-4.1 zusammengefasst:

AufgabeBeschreibungWarum GPT-4.1 eine gute Wahl ist
Erläuterung zum CodeErkennen der Funktion eines Codeblocks oder Durchlaufen von LogikSchnelle und genaue Erklärungen.
Codekommentare und -dokumentationenGenerieren oder Optimieren von Kommentaren und DokumentationenSchreibt klare und präzise Erklärungen.
FehleruntersuchungErstellen einer schnellen Erklärung oder eines Vorschlags für einen FehlerBietet schnelle Diagnoseerkenntnisse.
Generierung von CodeausschnittenGenerieren kleiner, wiederverwendbarer CodeteileLiefert schnelle und qualitativ hochwertige Ergebnisse.
Mehrsprachige PromptsArbeiten mit nicht englischen Prompts oder BezeichnernVerbessert das mehrsprachige Verstehen.

Alternative Optionen

AufgabeBeschreibungWarum ein anderes Modell besser geeignet sein kann
Mehrstufige Begründungen oder AlgorithmenEntwerfen komplexer Logik oder Aufschlüsseln mehrstufiger ProblemeGPT-4.5 oder Claude 3.7 Sonnet bieten ein besseres Denken in Schritten.
Komplexes RefactoringRefactoring großer Codebasen oder Update mehrerer zusammenhängender DateienGPT-4.5 bietet eine stabilere Behandlung von Kontext- und Codeabhängigkeiten.
Systemüberprüfung oder -architekturEingehendes Analysieren von Struktur, Mustern oder ArchitekturentscheidungenClaude 3.7 Sonnet oder GPT-4.5 bieten eine tiefergehende Analyse.

GPT-4.5

OpenAI GPT-4.5 verbessert Begründung, Zuverlässigkeit und kontextbezogenes Verstehen. Es eignet sich für Entwicklungsaufgaben, die komplexe Logik, qualitativ hochwertige Codegenerierung oder die Interpretation differenzierter Absichten beinhaltet.

Im Vergleich zu GPT-4o liefert GPT-4.5 konsistentere Ergebnisse für mehrstufige Begründungen, lange Inhalte und komplexe Problemlösungen. Es weist eine etwas höhere Latenz und höhere Kosten auf als GPT-4o und andere kleinere Modelle.

Weitere Informationen zu GPT-4.5 findest du in der OpenAI-Dokumentation.

Anwendungsfälle

GPT-4.5 ist eine gute Wahl für Aufgaben, die mehrere Schritte umfassen, ein tieferes Codeverständnis erfordern oder von einem Konversationsmodell profitieren, das gut mit Nuancen umgehen kann.

Strengths

In der folgenden Tabelle werden die Vorteile von GPT-4.5 zusammengefasst:

AufgabeBeschreibungWarum GPT-4.5 eine gute Wahl ist
CodedokumentationEntwerfen von README-Dateien oder technischen ErläuterungenGeneriert klare, kontextreiche Texte mit minimaler Bearbeitung.
Komplexe CodegenerierungSchreiben vollständiger Funktionen, Klassen oder von Logik über mehrere DateienBietet eine bessere Struktur, Konsistenz und weniger Logikfehler.
FehleruntersuchungÜberwachen von Fehlern oder Durchlaufen mehrstufiger ProblemeVerwaltet den Zustand und bietet zuverlässige Begründungen für alle Schritte.
EntscheidungspromptsAbwägen der Vor- und Nachteile von Bibliotheken, Mustern oder ArchitekturenBietet ausgewogene, kontextbezogene Begründungen.

Alternative Optionen

In der folgenden Tabelle wird zusammengefasst, für welche Aufgaben ein anderes Modell besser geeignet wäre:

AufgabeBeschreibungWarum ein anderes Modell besser geeignet sein kann
Iterationen mit hoher GeschwindigkeitSchnelle bidirektionale Prompts oder CodeoptimierungenGPT-4o reagiert schneller und mit ähnlicher Qualität bei einfachen Aufgaben.
Kostensensible SzenariosAufgaben, bei denen das Kosten-Leistungs-Verhältnis eine Rolle spieltGPT-4o oder o4-mini sind kostengünstiger.

O1

OpenAI o1 ist ein älteres Modell für Begründungen, das komplexe, mehrstufige Aufgaben und eine tiefergehende logische Argumentation unterstützt, um die beste Lösung zu finden.

Weitere Informationen zu o1 findest du in der OpenAI-Dokumentation.

Anwendungsfälle

o1 ist eine gute Wahl für Aufgaben, die eine hochgradig logisches Denken erfordern. Seine Fähigkeit zu komplexem logischen Denken ermöglicht es Copilot, Probleme in klare, umsetzbare Schritte herunterzubrechen. Daher eignet sich o1 besonders gut zum Debuggen. Sein logisches Denken kann den umfassenderen Kontext eines Problems jenseits des ursprünglichen Prompts untersuchen und Grenzfälle oder Ursachen aufdecken, die nicht ausdrücklich erwähnt wurden.

Strengths

In der folgenden Tabelle werden die Vorteile von o1 zusammengefasst:

AufgabeBeschreibungWarum o1 eine gute Wahl ist
CodeoptimierungAnalysieren und Verbessern von leistungskritischem oder algorithmischem CodeBesonders geeignet für tiefergehende Begründungen und zur Identifizierung nicht offensichtlicher Verbesserungen.
Debuggen komplexer SystemeIsolieren und Beheben von Leistungsengpässen oder Problemen mit mehreren DateienLiefert eine Schritt-für-Schritt-Analyse und hohe Begründungsgenauigkeit.
Strukturierte CodegenerierungGenerieren wiederverwendbarer Funktionen, typisierter Ausgaben oder strukturierter AntwortenUnterstützt systemintern Funktionsaufrufe und strukturierte Ausgaben.
Analytische ZusammenfassungInterpretieren von Protokollen, Benchmarkergebnissen oder CodeverhaltenÜbersetzt Rohdaten in klare, umsetzbare Erkenntnisse.
Umgestalten von Code (Refactoring)Verbessern von Wartbarkeit und Modularität vorhandener SystemeWendet gezielte und kontextbezogene Vorschläge an.

Alternative Optionen

In der folgenden Tabelle wird zusammengefasst, für welche Aufgaben ein anderes Modell besser geeignet wäre:

AufgabeBeschreibungWarum ein anderes Modell besser geeignet sein kann
Schnelle IterationenSchnelle bidirektionale Prompts oder CodeoptimierungenGPT-4o oder Gemini 2.0 Flash reagieren schneller bei einfachen Aufgaben.
Kostensensible SzenariosAufgaben, bei denen das Kosten-Leistungs-Verhältnis eine Rolle spielto4-mini oder Gemini 2.0 Flash sind für allgemeine Anwendungsfälle kostengünstiger.

o3

Note

o3 in Copilot Chat befindet sich derzeit in der public preview. Änderungen sind vorbehalten.

OpenAI o3 ist das leistungsfähigste Begründungsmodell o-Serie. Es ist ideal für tiefgehende Programmierworkflows und komplexe, mehrstufige Aufgaben. Weitere Informationen zu o3 findest du in der OpenAI-Dokumentation.

Anwendungsfälle

o3 ist eine gute Wahl für Aufgaben, die eine tiefgehende logische Begründung erfordern. Seine Fähigkeit zu komplexem logischen Denken ermöglicht es Copilot, Probleme in klare, umsetzbare Schritte herunterzubrechen. Dadurch ist o3 besonders gut für das Debuggen geeignet. Sein logisches Denken kann den umfassenderen Kontext eines Problems jenseits des ursprünglichen Prompts untersuchen und Grenzfälle oder Ursachen aufdecken, die nicht ausdrücklich erwähnt wurden.

Strengths

In der folgenden Tabelle werden die Vorteile von o3 zusammengefasst:

AufgabeBeschreibungGründe für o3
CodeoptimierungAnalysieren und Verbessern von leistungskritischem oder algorithmischem CodeBesonders geeignet für tiefergehende Begründungen und zur Identifizierung nicht offensichtlicher Verbesserungen.
Debuggen komplexer SystemeIsolieren und Beheben von Leistungsengpässen oder Problemen mit mehreren DateienLiefert eine Schritt-für-Schritt-Analyse und hohe Begründungsgenauigkeit.
Strukturierte CodegenerierungGenerieren wiederverwendbarer Funktionen, typisierter Ausgaben oder strukturierter AntwortenUnterstützt systemintern Funktionsaufrufe und strukturierte Ausgaben.
Analytische ZusammenfassungInterpretieren von Protokollen, Benchmarkergebnissen oder CodeverhaltenÜbersetzt Rohdaten in klare, umsetzbare Erkenntnisse.
Umgestalten von Code (Refactoring)Verbessern von Wartbarkeit und Modularität vorhandener SystemeWendet gezielte und kontextbezogene Vorschläge an.

Alternative Optionen

In der folgenden Tabelle wird zusammengefasst, für welche Aufgaben ein anderes Modell besser geeignet wäre:

AufgabeBeschreibungWarum ein anderes Modell besser geeignet sein kann
Schnelle IterationenSchnelle bidirektionale Prompts oder CodeoptimierungenGPT-4o oder Gemini 2.0 Flash reagieren schneller bei einfachen Aufgaben.
Kostensensible SzenariosAufgaben, bei denen das Kosten-Leistungs-Verhältnis eine Rolle spielto4-mini oder Gemini 2.0 Flash sind für allgemeine Anwendungsfälle kostengünstiger.

o3-mini

OpenAI o3-mini ist ein schnelles, kostengünstiges Begründungsmodell, das Programmierleistung bei geringerer Latenz und Ressourcennutzung liefert. o3-mini übertrifft o1 bei den Programmierbenchmarks mit Antwortzeiten, die mit o1-mini vergleichbar sind. Copilot ist für die Verwendung des „mittleren“ Begründungsaufwands von OpenAI konfiguriert.

Weitere Informationen zu o1 findest du in der OpenAI-Dokumentation.

Anwendungsfälle

o3-mini ist eine gute Wahl für Programmierende, die schnelle, zuverlässige Antworten auf einfache oder sich wiederholende Programmierfragen benötigen. Aufgrund seiner Geschwindigkeit und Effizienz eignet sich das Modell ideal für einfache Programmieraufgaben.

Strengths

In der folgenden Tabelle werden die Vorteile von o3-mini zusammengefasst:

AufgabeBeschreibungWarum o3-mini eine gute Wahl ist
Codevorschläge in EchtzeitSchreiben oder Erweitern grundlegender Funktionen und DienstprogrammeReagiert schnell mit präzisen Vorschlägen.
Erläuterung zum CodeErkennen der Funktion eines Codeblocks oder Durchlaufen von LogikLiefert schnelle und genaue Zusammenfassungen in klarer Sprache.
Kennenlernen neuer KonzepteStellen von Fragen zu Programmierkonzepten oder MusternBietet hilfreiche, barrierefreie Erklärungen mit schnellem Feedback.
Schnelle PrototyperstellungSchnelles Testen kleiner Ideen oder einfacher CodelogikLiefert schnelle Antworten mit geringer Latenz für iteratives Feedback.

Alternative Optionen

In der folgenden Tabelle wird zusammengefasst, für welche Aufgaben ein anderes Modell besser geeignet wäre:

AufgabeBeschreibungWarum ein anderes Modell besser geeignet sein kann
Aufgaben mit tiefergehender BegründungMehrstufige Analyse oder ArchitekturentscheidungenGPT-4.5 oder o1 bieten eine strukturiertere, tiefergehende Begründung.
Kreative oder lange AufgabenSchreiben von Dokumenten und Refactoring großer Codebaseno3-mini ist weniger ausdrucksfähig und strukturiert als größere Modelle.
Komplexe CodegenerierungSchreiben vollständiger Funktionen, Klassen oder von Logik über mehrere DateienGrößere Modelle sind zuverlässiger in der Verarbeitung von Komplexität und Struktur.

o4-mini

Note

o4-mini in Copilot Chat befindet sich derzeit in der public preview. Änderungen sind vorbehalten.

OpenAI o4-mini ist das effizienteste Modell o-Serie. Dabei handelt es sich um ein schnelles, kostengünstiges Begründungsmodell, das Programmierleistung bei geringerer Latenz und Ressourcennutzung liefert.

Weitere Informationen zu o4 findest du in der OpenAI-Dokumentation.

Anwendungsfälle

o4-mini ist eine gute Wahl für Entwickelnde, die schnelle, zuverlässige Antworten auf einfache oder sich wiederholende Fragen zur Programmierung benötigen. Aufgrund seiner Geschwindigkeit und Effizienz eignet sich das Modell ideal für einfache Programmieraufgaben.

Strengths

In der folgenden Tabelle werden die Vorteile von o4-mini zusammengefasst:

AufgabeBeschreibungGründe für o4-mini
Codevorschläge in EchtzeitSchreiben oder Erweitern grundlegender Funktionen und DienstprogrammeReagiert schnell mit präzisen Vorschlägen.
Erläuterung zum CodeErkennen der Funktion eines Codeblocks oder Durchlaufen von LogikLiefert schnelle und genaue Zusammenfassungen in klarer Sprache.
Kennenlernen neuer KonzepteStellen von Fragen zu Programmierkonzepten oder MusternBietet hilfreiche, barrierefreie Erklärungen mit schnellem Feedback.
Schnelle PrototyperstellungSchnelles Testen kleiner Ideen oder einfacher CodelogikLiefert schnelle Antworten mit geringer Latenz für iteratives Feedback.

Alternative Optionen

In der folgenden Tabelle wird zusammengefasst, für welche Aufgaben ein anderes Modell besser geeignet wäre:

AufgabeBeschreibungWarum ein anderes Modell besser geeignet sein kann
Aufgaben mit tiefergehender BegründungMehrstufige Analyse oder ArchitekturentscheidungenGPT-4.5 oder o3 bieten strukturiertere, tiefergehende Begründungen.
Kreative oder lange AufgabenSchreiben von Dokumenten und Refactoring großer Codebaseno4-mini ist kostengünstiger und weniger strukturiert als größere Modelle.
Komplexe CodegenerierungSchreiben vollständiger Funktionen, Klassen oder von Logik über mehrere DateienGrößere Modelle sind zuverlässiger in der Verarbeitung von Komplexität und Struktur.

Claude 3.5 Sonnet

Claude 3.5 Sonnet ist ein schnelles und kosteneffizientes Modell für tägliche Entwicklungsaufgaben. Es verfügt zwar nicht über die tiefergehenden Begründungsfunktionen von Claude 3.7 Sonnet, doch es eine gute Option zum Codieren von Aufgaben, die schnelle Antworten, klare Zusammenfassungen und grundlegende Logik erfordern.

Weitere Informationen zu Claude 3.5 Sonnet findest du in der Anthropic-Dokumentation. Weitere Informationen zur Verwendung von Claude in Copilot findest du unter Verwenden von Claude Sonnet in Copilot Chat.

Anwendungsfälle

Claude 3.5 Sonnet ist eine gute Unterstützung für tägliche Programmieraufgaben wie dem Schreiben von Dokumentationen, dem Beantworten sprachspezifischer Fragen oder dem Generieren von Codebausteinen. Es bietet hilfreiche, direkte Antworten, ohne eine Aufgabe übermäßig zu verkomplizieren. Bei Kosteneinschränkungen arbeiten, wird Claude 3.5 Sonnet empfohlen, weil das Modell bei vielen der gleichen Tasks eine genauso solide Leistung wie Claude 3.7 Sonnet bietet, jedoch mit deutlich geringerer Ressourcennutzung.

Strengths

In der folgenden Tabelle werden die Vorteile von Claude 3.5 Sonnet zusammengefasst:

AufgabeBeschreibungWarum Claude 3.5 Sonnet eine gute Wahl ist
Erläuterung zum CodeErkennen der Funktion eines Codeblocks oder Durchlaufen von LogikSchnelle und genaue Erklärungen.
Codekommentare und -dokumentationenGenerieren oder Optimieren von Kommentaren und DokumentationenSchreibt klare und präzise Erklärungen.
Schnelle Fragen zur SpracheFragen nach Syntax, Ausdrücken oder bestimmten FeaturesBietet schnelle und genaue Erklärungen.
Generierung von CodeausschnittenGenerieren kleiner, wiederverwendbarer CodeteileLiefert schnelle und qualitativ hochwertige Ergebnisse.

Alternative Optionen

In der folgenden Tabelle wird zusammengefasst, für welche Aufgaben ein anderes Modell besser geeignet wäre:

AufgabeBeschreibungWarum ein anderes Modell besser geeignet sein kann
Mehrstufige Begründungen oder AlgorithmenEntwerfen komplexer Logik oder Aufschlüsseln mehrstufiger ProblemeGPT-4.5 oder Claude 3.7 Sonnet bieten ein besseres Denken in Schritten.
Komplexes RefactoringRefactoring großer Codebasen oder Update mehrerer zusammenhängender DateienGPT-4.5 oder Claude 3.7 Sonnet bieten eine stabilere Verarbeitung von Kontext- und Codeabhängigkeiten.
Systemüberprüfung oder -architekturEingehendes Analysieren von Struktur, Mustern oder ArchitekturentscheidungenClaude 3.7 Sonnet oder GPT-4.5 bieten eine tiefergehende Analyse.

Claude 3.7 Sonnet

Claude 3.7 Sonnet ist aktuell das fortschrittlichste Anthropic-Modell. Claude 3.7 Sonnet ist ein leistungsfähiges Modell, das besonders für Entwicklungsaufgaben geeignet ist, die strukturierte Begründungen für große oder komplexe Codebasen erfordern. Sein hybrider Begründungsansatz reagiert bei Bedarf schnell und unterstützt gleichzeitig eine langsamere Schritt-für-Schritt-Analyse bei tiefergehenden Aufgaben.

Weitere Informationen zu Claude 3.7 Sonnet findest du in der Anthropic-Dokumentation. Weitere Informationen zur Verwendung von Claude in Copilot findest du unter Verwenden von Claude Sonnet in Copilot Chat.

Anwendungsfälle

Claude 3.7 Sonnet eignet sich hervorragend für den gesamten Lebenszyklus der Softwareentwicklung – von ersten Entwürfen über Bugfixes und Wartung bis hin zu Optimierungen. Das Modell eignet sich besonders gut für das Refactoring von mehreren Dateien oder die Architekturplanung, bei diesen Aufgaben ist ein komponentenübergreifendes Kontextverständnis unerlässlich.

Strengths

In der folgenden Tabelle werden die Vorteile von Claude 3.7 Sonnet zusammengefasst:

AufgabeBeschreibungWarum Claude 3.7 Sonnet eine gute Wahl ist
Refactoring für mehrere DateienVerbessern von Struktur und Wartbarkeit für große CodebasenVerarbeitet mehrstufige Logik und behält den dateiübergreifenden Kontext bei.
ArchitekturplanungUnterstützen von Aufgaben unterschiedlicher Komplexität, von kleinen Abfragen bis zu strategischer ArbeitDifferenzierte Thinking-Kontrollen passen sich an den Umfang der einzelnen Aufgaben an.
FeatureentwicklungErstellen und Implementieren von Funktionen auf Front-End-, Back-End- und API-SchichtenUnterstützt Aufgaben mit strukturierten Begründungen und zuverlässigen Vervollständigungen.
AlgorithmusentwurfEntwerfen, Testen und Optimieren komplexer AlgorithmenErgänzt eine schnelle Prototyperstellung bei Bedarf mit einer tiefergehenden Analyse.
Analytische ErkenntnisseKombinieren von allgemeinen Zusammenfassungen mit tiefgehenden Einblicken in das CodeverhaltenJe nach Benutzeranforderung wird mit hybrider Begründung das entsprechende Modell verwendet.

Alternative Optionen

In der folgenden Tabelle wird zusammengefasst, für welche Aufgaben ein anderes Modell besser geeignet wäre:

AufgabeBeschreibungWarum ein anderes Modell besser geeignet sein kann
Schnelle IterationenSchnelle bidirektionale Prompts oder CodeoptimierungenGPT-4o reagiert schneller bei einfachen Aufgaben.
Kostensensible SzenariosAufgaben, bei denen das Kosten-Leistungs-Verhältnis eine Rolle spielto4-mini oder Gemini 2.0 Flash sind für allgemeine Anwendungsfälle kostengünstiger. Claude 3.5 Sonnet ist billiger, einfacher und doch ausreichend hoch entwickelt für ähnliche Aufgaben.
Einfache PrototyperstellungSchnelle bidirektionale Codeiterationen mit minimalem KontextClaude 3.7 Sonnet arbeitet möglicherweise zu kompliziert oder unnötig komplex.

Gemini 2.0 Flash

Gemini 2.0 Flash ist das multimodale Hochgeschwindigkeitsmodell von Google, das für interaktive Echtzeitanwendungen optimiert ist, die visuelle Eingaben und Agent-Schlussfolgerungen nutzen. In Copilot Chat ermöglicht Gemini 2.0 Flash schnelle Antworten und intermodales Verstehen.

Weitere Informationen zu Gemini 2.0 Flash findest du in der Google-Dokumentation. Weitere Informationen zur Verwendung von Gemini in Copilot findest du unter Verwenden von Gemini in Copilot-Chat.

Anwendungsfälle

Gemini 2.0 Flash unterstützt Bildeingaben, sodass visueller Kontext bei der Entwicklung in Aufgaben wie Benutzeroberflächeninspektion, Diagrammanalyse oder Layoutdebugging integriert werden kann. Dadurch ist Gemini 2.0 Flash besonders nützlich für Szenarios, in denen bildbasierte Eingaben die Problemlösung erleichtern. So kann Copilot z. B. gebeten werden, den Screenshot einer Benutzeroberfläche auf Probleme hinsichtlich der Barrierefreiheit zu analysieren oder bei der Analyse eines visuellen Fehlers zu helfen.

Strengths

In der folgenden Tabelle werden die Vorteile von Gemini 2.0 Flash zusammengefasst:

AufgabeBeschreibungWarum Gemini 2.0 Flash eine gute Wahl ist
Generierung von CodeausschnittenGenerieren kleiner, wiederverwendbarer CodeteileLiefert schnelle und qualitativ hochwertige Ergebnisse.
DesignfeedbackschleifenVorschläge aus Skizzen, Diagrammen oder visuellen EntwürfenUnterstützt visuelle Begründungen.
Bildbasierte AnalyseFragen nach einem Diagramm oder Screenshot (sofern Bildeingaben unterstützt werden)Unterstützt visuelle Begründungen.
Front-End-PrototyperstellungErstellen und Testen von Benutzeroberflächen oder Workflows, die visuelle Elemente enthaltenUnterstützt multimodale Begründungen und einfachen Kontext.
FehleruntersuchungErstellen einer schnellen Erklärung oder eines Vorschlags für einen FehlerBietet schnelle Diagnoseerkenntnisse.

Alternative Optionen

In der folgenden Tabelle wird zusammengefasst, für welche Aufgaben ein anderes Modell besser geeignet wäre:

AufgabeBeschreibungWarum ein anderes Modell besser geeignet sein kann
Mehrstufige Begründungen oder AlgorithmenEntwerfen komplexer Logik oder Aufschlüsseln mehrstufiger ProblemeGPT-4.5 oder Claude 3.7 Sonnet bieten ein besseres Denken in Schritten.
Komplexes RefactoringRefactoring großer Codebasen oder Update mehrerer zusammenhängender DateienGPT-4.5 bietet eine stabilere Behandlung von Kontext- und Codeabhängigkeiten.

Gemini 2.5 Pro

Gemini 2.5 Pro ist das neueste KI-Modell von Google, das für komplexe Aufgaben mit erweiterten Logik- und Codierungsfunktionen entwickelt wurde. Es eignet sich auch gut für anspruchsvolle Forschungsworkflows, die Verständnis und Analysen für großen Kontext erfordern.

Weitere Informationen zu Gemini 2.5 Pro findest du in der Google-Dokumentation. Weitere Informationen zur Verwendung von Gemini in Copilot findest du unter Verwenden von Gemini in Copilot-Chat.

Anwendungsfälle

Gemini 2.5 Pro ist gut für erweiterte Programmieraufgaben wie das Entwickeln komplexer Algorithmen oder das Debuggen komplizierter Codebasen geeignet. Der Dienst kann wissenschaftliche Untersuchungen durch die Analyse von Daten und die Gewinnung von Erkenntnisse aus einer Vielzahl von Disziplinen unterstützen. Mit den Funktionen für langfristigen Kontext können umfangreiche Dokumente oder Datasets effektiv verwaltet und nachvollzogen werden. Gemini 2.5 Pro ist eine gute Wahl für Entwickelnde, die ein leistungsfähiges Modell benötigen.

Strengths

In der folgenden Tabelle werden die Vorteile von Gemini 2.5 Pro zusammengefasst:

AufgabeBeschreibungGründe für Gemini 2.5 Pro
Komplexe CodegenerierungSchreiben vollständiger Funktionen, Klassen oder von Logik über mehrere DateienBietet eine bessere Struktur, Konsistenz und weniger Logikfehler.
Debuggen komplexer SystemeIsolieren und Beheben von Leistungsengpässen oder Problemen mit mehreren DateienLiefert eine Schritt-für-Schritt-Analyse und hohe Begründungsgenauigkeit.
Wissenschaftliche ForschungAnalysieren von Daten und Generieren von Erkenntnissen in wissenschaftlichen DisziplinenUnterstützt komplexe Analysen mit umfangreichen Recherchefunktionen
Verarbeitung von großem KontextAnalysieren von umfangreichen Dokumenten, Datasets oder CodebasenVerarbeitet große Kontexteingaben effektiv

Alternative Optionen

In der folgenden Tabelle wird zusammengefasst, für welche Aufgaben ein anderes Modell besser geeignet wäre:

AufgabeBeschreibungWarum ein anderes Modell besser geeignet sein kann
Kostensensible SzenariosAufgaben, bei denen das Kosten-Leistungs-Verhältnis eine Rolle spielto4-mini oder Gemini 2.0 Flash sind für allgemeine Anwendungsfälle kostengünstiger.

Weiterführende Themen