OpenAI Agents SDK im Praxis-Vergleich: Orchestrierung, Tool-Calling, Memory & Observability auf dem Prüfstand

openai agents sdk: Visualize a modern, professional business meeting room with a large digital screen displaying intricate

 

Wichtigste Erkenntnisse

  • Die KI-Landschaft verändert sich rasant und mit ihr auch die Werkzeuge, die Entwicklern zur Verfügung stehen.
  • Das OpenAI Agents SDK zeichnet sich durch seine Einfachheit und nahtlose Integration in das OpenAI-Ökosystem aus, während Frameworks wie LangGraph mehr Flexibilität bei der Architektur bieten.
  • Das OpenAI Agents SDK ist eine schlanke Python-Bibliothek, mit der sich agentische LLM-Anwendungen samt Tools, Handoffs und Guardrails bauen lassen.
  • Das Framework basiert auf drei zentralen Primitiven:
  • Einen eingebauten Agent-Loop, der automatisch Tool-Aufrufe verarbeitet und Beobachtungen sammelt
  • Agent Memory bezeichnet die Fähigkeit eines Agenten, Informationen über Interaktionen hinweg zu speichern und abzurufen.

OpenAI Agents SDK im Praxis-Vergleich: Orchestrierung, Tool Calling, Memory & Observability auf dem Prüfstand

Einleitung

Die KI-Landschaft verändert sich rasant und mit ihr auch die Werkzeuge, die Entwicklern zur Verfügung stehen. Ein besonders aktives Feld ist die Entwicklung von Agent Frameworks – Bibliotheken, die es ermöglichen, KI-Agenten zu erschaffen, die selbstständig handeln können. Doch mit der wachsenden Zahl an Frameworks wie OpenAI Agents SDK, CrewAI, LangGraph und AutoGen wird es für Entwickler zunehmend schwieriger, den Überblick zu behalten.

Wenn Sie nach dem optimalen Framework für Ihr nächstes Projekt suchen, stellen Sie sich wahrscheinlich Fragen wie: Welches Framework bietet die beste Multi-Agent Orchestration? Wie unterscheiden sich die Ansätze bei Tool-Calling Agenten? Welche Möglichkeiten gibt es für Agent Memory und Vector Database Integration? Und wie steht es um die Beobachtbarkeit (Observability) der Agenten?

In diesem Beitrag erhalten Sie einen datenbasierten Vergleich der führenden Agent-Frameworks mit besonderem Fokus auf das OpenAI Agents SDK. Wir untersuchen praktische Kriterien, die für Ihre Entscheidungsfindung entscheidend sind.

Spoiler: Das OpenAI Agents SDK zeichnet sich durch seine Einfachheit und nahtlose Integration in das OpenAI-Ökosystem aus, während Frameworks wie LangGraph mehr Flexibilität bei der Architektur bieten.

Das OpenAI Agents SDK ist eine schlanke Python-Bibliothek, mit der sich agentische LLM-Anwendungen samt Tools, Handoffs und Guardrails bauen lassen. Lassen Sie uns tiefer eintauchen, um herauszufinden, ob es das richtige Tool für Ihre Anforderungen ist.

https://developers.openai.com/api/docs/guides/agents-sdk/

 

Was ist das OpenAI Agents SDK?

Das OpenAI Agents SDK ist eine leichtgewichtige Python-Bibliothek, die von OpenAI entwickelt und Anfang 2024 veröffentlicht wurde. Sie wurde speziell dafür konzipiert, die Erstellung von agentischen KI-Anwendungen zu vereinfachen.

Das Framework basiert auf drei zentralen Primitiven:

  • Agenten: Kombinationen aus Large Language Models (LLMs), Instruktionen und Tools
  • Handoffs: Mechanismen zur Delegation von Aufgaben an spezialisierte Teil-Agenten
  • Guardrails: Validierungssysteme für Ein- und Ausgaben zur Qualitätssicherung

https://developers.openai.com/api/docs/guides/agents-sdk/

Technisch betrachtet bietet das SDK mehrere Kernfunktionen:

  • Einen eingebauten Agent-Loop, der automatisch Tool-Aufrufe verarbeitet und Beobachtungen sammelt
  • Sessions für persistentes Memory, die auf SQLite basieren und Konversationsverläufe speichern
  • Eine umfassende Tracing-API für Debugging und Metriken-Erfassung
  • Realtime-Voice-Unterstützung mit gpt-realtime-1.5 für sprachbasierte Agenten

https://openai.github.io/openai-agents-python/ref/memory/

https://openai.github.io/openai-agents-python/tracing/

Das SDK eignet sich für eine Vielzahl von Anwendungsfällen wie:

  • Kundenservice-Bots mit Zugriff auf interne Wissensdatenbanken
  • Multi-Agent-Forschungssysteme (z.B. für Portfolio-Analysen)
  • Reiseplanungsassistenten mit Zugriff auf Flug- und Hoteldaten
  • Datenanalyse-Workflows mit Code-Interpreter-Funktionalität

https://openai.github.io/openai-agents-python/examples/

Zu den wichtigsten Vorteilen des OpenAI Agents SDK gehören:

  • Python-First-Ansatz mit minimalen Abstraktionen
  • Niedrige Einstiegshürde für Entwickler
  • Schneller Weg von Prototypen zur Produktionsreife
  • Nahtlose Integration mit dem OpenAI-Ökosystem

https://blog.promptlayer.com/openai-agents-sdk/

 

Warum überhaupt ein Agent Framework?

Bevor wir in den detaillierten Vergleich einsteigen, lohnt es sich, einen Schritt zurückzutreten und zu fragen: Was genau ist eigentlich ein Agent Framework und warum sollten Sie eines verwenden?

Ein Agent Framework stellt Bausteine bereit, damit AI-Agenten wahrnehmen, schlussfolgern, handeln und Gedächtnis führen können. Diese Frameworks abstrahieren die komplexen Prozesse, die nötig sind, um aus Large Language Models (LLMs) tatsächlich handlungsfähige Systeme zu machen.

https://www.ruh.ai/blogs/top-10-ai-agent-tools-2026

In modernen KI-Projekten gibt es mehrere Schlüsselanforderungen, die ein Agent Framework erfüllen sollte:

  1. Tool-Integration: Die Fähigkeit, externe Dienste, APIs und Funktionen aufzurufen
  2. Multi-Agent Orchestration: Koordination mehrerer spezialisierter Agenten für komplexe Aufgaben
  3. Memory/Vector Retrieval: Persistentes Gedächtnis und semantische Suche für kontextbewusste Interaktionen
  4. Observability: Transparente Nachverfolgung und Analyse von Agent-Aktivitäten

Die Wahl des richtigen Frameworks kann den Unterschied ausmachen zwischen einem Projekt, das schnell zur Produktionsreife gelangt, und einem, das in der Entwicklungsphase stecken bleibt. Schauen wir uns daher im Folgenden an, wie die verschiedenen Frameworks diese Anforderungen erfüllen.

 

Großer Agent Frameworks Vergleich

Um eine fundierte Entscheidung treffen zu können, werfen wir einen vergleichenden Blick auf die führenden Agent Frameworks: OpenAI Agents SDK, LangGraph, CrewAI und AutoGen.

Framework Benutzerfreundlichkeit Performance/Flexibilität Skalierbarkeit Ökosystem-Integration
OpenAI Agents SDK Hoch (minimale Abstraktionen, Python-nativ) Gut (leichtgewichtiger Loop, Handoffs) Starkes Tracing/Observability Native OpenAI-Modelle/Tools
LangGraph Moderat (steile Lernkurve für Graph-Design) Sehr hoch (maßgeschneiderte Architekturen) Exzellente Multi-Agent-Graphen LangChain/JS/Python
CrewAI Moderat (aufgabenorientiert) Gut (flexible Aufgabendefinitionen) Monitoring via LangChain Breite LLM-Unterstützung
AutoGen Hoch (schneller Einstieg) Moderat (aktorbasiert) Microsoft-fokussiert Starke OpenAI/Microsoft-Integration

 

https://composio.dev/content/openai-agents-sdk-vs-langgraph-vs-autogen-vs-crewai

Schauen wir uns die Stärken und Schwächen jedes Frameworks genauer an:

OpenAI Agents SDK:

  • Stärken: Höchste Benutzerfreundlichkeit, native Integration mit OpenAI-Tools, hervorragende Observability
  • Schwächen: Weniger Flexibilität bei komplexen Architekturen, primär für OpenAI-Modelle optimiert

LangGraph:

  • Stärken: Maximale architektonische Freiheit, explizite Zustandskontrolle, leistungsstarke Multi-Agent-Workflows
  • Schwächen: Steilere Lernkurve, mehr Boilerplate-Code erforderlich

CrewAI:

  • Stärken: Task-fokussierte Multi-Agent-Crews, intuitive Rollen- und Aufgabendefinitionen
  • Schwächen: Weniger ausgereifte Observability, Monitoring nur über LangChain

AutoGen:

  • Stärken: Schneller Einstieg, gute Integration in den Microsoft-Stack, konversationsorientiert
  • Schwächen: Weniger Flexibilität bei komplexen Architekturen

Besonders interessant ist CrewAI als aufgabenorientiertes Framework, das sich auf die Zusammenarbeit zwischen Agenten konzentriert. Es verwendet ein “Crew Lead + Worker”-Paradigma, das für bestimmte Szenarien wie kollaboratives Problemlösen besonders gut geeignet ist.

https://composio.dev/content/openai-agents-sdk-vs-langgraph-vs-autogen-vs-crewai

 

Multi Agent Orchestration in der Praxis

Die Multi-Agent Orchestration bezeichnet die Koordination mehrerer spezialisierter Agenten, um komplexe Aufgaben zu bewältigen. Dies umfasst Flusssteuerung, Aufgabenverteilung und Delegation zwischen den Agenten. Das OpenAI Agents SDK bietet hierfür verschiedene Ansätze.

https://openai.github.io/openai-agents-python/examples/

Der OpenAI-Ansatz zur Multi-Agent-Orchestrierung umfasst drei Hauptmuster:

  1. Agent-as-Tool: Ein Manager-Agent ruft Spezialisten-Agenten als Functions auf, ohne die Kontrolle vollständig abzugeben. Der Manager behält den Überblick und koordiniert den Gesamtprozess.
  2. Handoffs: Bei diesem Ansatz wird die Kontrolle vollständig an einen Sub-Agenten delegiert, der eine spezifische Aufgabe eigenständig bearbeitet und anschließend die Kontrolle zurückgibt.
  3. Parallel-Execution: Mehrere Agenten arbeiten gleichzeitig an verschiedenen Teilaspekten einer Aufgabe, wobei ihre Ergebnisse später zusammengeführt werden.

https://openai.github.io/openai-agents-python/multi_agent/

Im Vergleich zu anderen Frameworks zeigen sich deutliche Unterschiede:

  • LangGraph setzt auf explizite Graph-Knoten und -Kanten, was maximale Kontrolle über den Workflow ermöglicht, aber auch mehr Entwicklungsaufwand erfordert.
  • CrewAI verwendet ein “Crew Lead + Worker”-Paradigma, bei dem ein führender Agent Aufgaben an spezialisierte Arbeiter-Agenten verteilt.

Die Vorteile der Multi-Agent-Orchestrierung sind vielfältig:

  • Spezialisierung: Jeder Agent kann sich auf seine Kernkompetenz konzentrieren (z.B. ein Agent für Recherche, einer für Texterstellung)
  • Skalierbarkeit: Komplexe Workflows können in handhabbare Teilaufgaben zerlegt werden
  • Auditierbarkeit: Durch Tracing kann der gesamte Entscheidungs- und Ausführungsprozess nachvollzogen werden

Ein praktisches Beispiel im OpenAI Agents SDK könnte so aussehen:

@agent
def research_agent(query):
    """Recherchiert Informationen zu einem bestimmten Thema."""
    # Agent-Logik hier

@agent
def writing_agent(research_results):
    """Erstellt einen Artikel basierend auf Rechercheergebnissen."""
    # Agent-Logik hier

@agent
def coordinator(topic):
    """Koordiniert den Recherche- und Schreibprozess."""
    # Ruft research_agent als Tool auf
    research_results = yield tool(research_agent)(topic)
    # Vollständige Delegation an writing_agent via Handoff
    yield handoff(writing_agent)(research_results)

 

Tool Calling Agenten

Tool Calling Agenten sind KI-Systeme, die externe Funktionen, APIs oder Codestücke aufrufen können, um Aktionen auszuführen, die über die reine Textgenerierung hinausgehen. Das OpenAI Agents SDK bietet eine besonders elegante Lösung für diese Anforderung.

https://openai.github.io/openai-agents-python/tools/

Die Funktionsweise von Tool-Calling im SDK ist bemerkenswert einfach:

  • Python-Funktionen werden via Signaturen und Docstrings automatisch in JSON-Tools übersetzt, wobei Module wie Inspect und Pydantic zum Einsatz kommen.
  • Der Decorator @tool genügt, um eine Funktion als Tool zu registrieren:
@tool
def get_weather(location: str, unit: str = "celsius"):
    """Gibt das aktuelle Wetter für einen bestimmten Ort zurück."""
    # Implementierung hier
    return {"temperature": 22, "condition": "sonnig"}

Das SDK unterstützt eine Vielzahl von Tool-Typen:

  • Hosted OpenAI Tools: Integrierte Werkzeuge wie Web-Browsing, Code Interpreter und Dateisuche
  • Lokale Shell: Ausführung von Befehlen im lokalen Betriebssystem
  • Agents-as-Tools: Andere Agenten als Werkzeuge verwenden
  • ToolSearchTool: Lazy Loading von Tools basierend auf Bedarf

https://blog.promptlayer.com/openai-agents-sdk/

Besonders hervorzuheben sind die robusten Mechanismen für Timeout- und Error-Handling sowie die Unterstützung strukturierter Multimedia-Outputs wie Bilder, Dateien und Tabellen.

Im Vergleich zu anderen Frameworks:

  • LangGraph erfordert Node-Custom-Tools mit mehr Boilerplate-Code
  • CrewAI und AutoGen bieten ebenfalls Funktionsaufrufe, aber ohne die nahtlose Integration der nativen OpenAI Hosted Tools

Ein praktisches Beispiel für Tool-Calling im OpenAI Agents SDK:

@tool
def search_database(query: str) -> list:
    """Durchsucht die Datenbank nach relevanten Informationen."""
    # Datenbankabfrage hier
    return ["Ergebnis 1", "Ergebnis 2"]

@agent(tools=[search_database])
def customer_support():
    """Ein Kundenservice-Agent mit Datenbankzugriff."""
    instructions = """
    Du bist ein hilfreicher Kundenservice-Agent.
    Nutze das search_database-Tool, um Kundenanfragen zu beantworten.
    """
    return instructions

https://openai.github.io/openai-agents-python/tools/

 

Agent Memory & Vector Database

Agent Memory und Vector Database Integration sind entscheidend für kontextbewusste KI-Agenten. Das OpenAI Agents SDK bietet hierfür durchdachte Lösungen, die wir nun genauer betrachten.

https://openai.github.io/openai-agents-python/ref/memory/

Agent Memory bezeichnet die Fähigkeit eines Agenten, Informationen über Interaktionen hinweg zu speichern und abzurufen. Vector Databases ermöglichen semantische Embedding-Suche für Retrieval-Augmented Generation (RAG).

Das SDK verwendet folgende Mechanismen:

  • Session-Objekte: Diese können entweder im Arbeitsspeicher (In-Memory) oder persistent in SQLite alle Turns einer Konversation speichern:
# In-Memory Session
session = Session()

# Persistente SQLite-Session
session = Session(sqlite_path="agent_memory.db")
  • FileSearchTool + OpenAI-Vector-Stores: Diese Kombination ermöglicht Retrieval über Embeddings, wobei Dokumente semantisch durchsucht werden können.

https://openai.github.io/openai-agents-python/ref/memory/

Eine Limitation des OpenAI Agents SDK ist die fehlende eingebaute Anbindung externer Vektor-Datenbanken wie Pinecone oder Weaviate. Diese kann jedoch über eigene Tool-Funktionen realisiert werden.

Im Vergleich zu anderen Frameworks:

  • LangGraph bietet Checkpoints für umfassendere Zustandsspeicherung
  • CrewAI nutzt LangChain-Memory-Mechanismen, was eine breitere Palette an Speicherlösungen ermöglicht

Ein Best-Practice-Tipp: Registrieren Sie externe Vektor-DBs als Tools, um das volle Potenzial des semantischen Retrievals zu nutzen:

@tool
def query_vector_db(query: str, top_k: int = 5):
    """Durchsucht die Vektor-Datenbank nach ähnlichen Dokumenten."""
    # Beispiel mit Supabase oder Pinecone
    embeddings = get_embeddings(query)
    results = vector_db.query(embeddings, top_k=top_k)
    return results

Die Integration von Agent Memory und Vector Database ist besonders wertvoll für Anwendungsfälle wie:

  • Kundenservice mit Zugriff auf Produktdokumentation
  • Forschungsassistenten mit umfangreicher Wissensbasis
  • Personalisierte Empfehlungssysteme mit Nutzerhistorie

https://openai.github.io/openai-agents-python/ref/memory/

 

Agent Observability & Monitoring

Agent Observability bezeichnet die Fähigkeit, sämtliche Agent-Aktivitäten transparent nachzuverfolgen, zu analysieren und zu überwachen. Dies ist entscheidend für Debugging, Leistungsoptimierung und Compliance-Anforderungen. Das OpenAI Agents SDK bietet hierfür eine besonders leistungsstarke Lösung.

https://openai.github.io/openai-agents-python/tracing/

Das SDK-Tracing erfasst detailliert:

  • LLM-Prompts und -Antworten
  • Tool-Aufrufe und deren Ergebnisse
  • Handoffs zwischen Agenten
  • Guardrail-Violations (Verstöße gegen definierte Schutzmaßnahmen)

Diese Daten können visualisiert und exportiert werden, was für Fine-Tuning und Evaluationen wertvoll ist. Ein besonderer Vorteil ist die Streaming-API, die Echtzeit-Einblicke in laufende Agent-Prozesse ermöglicht.

with Agent.from_tools([get_weather]) as agent:
    # Aktivieren des Tracings
    with agent.tracing("weather-agent-trace") as session:
        response = agent.run("Wie ist das Wetter in Berlin?")
        
        # Zugriff auf Trace-Daten
        trace = session.trace
        print(f"LLM Aufrufe: {len(trace.llm_calls)}")
        print(f"Tool Aufrufe: {len(trace.tool_calls)}")

Im Vergleich zu anderen Frameworks:

  • CrewAI und AutoGen bieten lediglich Standard-Logging ohne tiefere Einblicke
  • LangGraph kann mit Add-ons wie Langfuse ähnliche Funktionalität erreichen, erfordert jedoch zusätzliches Setup

https://openai.github.io/openai-agents-python/tracing/

Der praktische Nutzen dieser Observability-Funktionen ist vielfältig:

  • Schnellere Fehlersuche: Probleme können bis zur genauen Ursache zurückverfolgt werden
  • KPI-Tracking: Performance-Metriken können automatisch erfasst und analysiert werden
  • Governance: Regulatorische Anforderungen können durch lückenlose Dokumentation erfüllt werden

Ein konkretes Anwendungsbeispiel ist die Analyse von Tool-Aufrufmustern zur Optimierung der Agent-Logik oder die Identifikation von Bereichen, in denen der Agent häufig scheitert.

https://openai.github.io/openai-agents-python/tracing/

 

Entscheidungsmatrix / Checkliste für Framework-Auswahl

Um die Wahl des richtigen Agent Frameworks zu erleichtern, haben wir eine Entscheidungsmatrix erstellt, die Ihre spezifischen Anforderungen mit den Stärken der verschiedenen Frameworks abgleicht. Diese Matrix berücksichtigt Multi-Agent Orchestration, Tool-Calling Agenten, Agent Memory Vector Database und Agent Observability.

Anforderung OpenAI Agents SDK LangGraph CrewAI AutoGen
Minimale Lernkurve ✅✅✅ ✅✅ ✅✅✅
Native OpenAI-Integration ✅✅✅ ✅✅ ✅✅ ✅✅
Komplexe Graph-Architekturen ✅✅✅
Team-basierte Aufgabenzuweisung ✅✅ ✅✅ ✅✅✅
Tool-Calling Flexibilität ✅✅✅ ✅✅ ✅✅ ✅✅
Memory-Persistenz ✅✅ ✅✅✅ ✅✅ ✅✅
Vector-DB-Integration ✅✅ ✅✅✅ ✅✅✅
Observability & Tracing ✅✅✅ ✅✅
Microsoft/Azure-Integration ✅✅ ✅✅ ✅✅✅
Produktionsreife ✅✅✅ ✅✅ ✅✅ ✅✅

 

Um Ihnen die Entscheidung zu erleichtern, hier einige Leitfragen:

  • Brauche ich minimale Lernkurve & OpenAI-First?
  • → OpenAI Agents SDK ist ideal für schnellen Einstieg mit OpenAI-Modellen
  • Benötige ich komplexe Graph-Architektur mit maximaler Kontrolle?
  • → LangGraph bietet die größte Flexibilität für komplexe Workflows
  • Ist team-basierte Aufgabenzuweisung zentral für mein Projekt?
  • → CrewAI excels with its intuitive “crew” metaphor
  • Muss ich schnell auf Azure loslegen?
  • → AutoGen bietet die beste Microsoft-Ökosystem-Integration
  • Sind Observability und Tracing kritisch für mein Projekt?
  • → OpenAI Agents SDK bietet die umfassendste out-of-the-box Lösung
  • Benötige ich erweiterte Vector-DB-Integration für RAG?
  • → LangGraph und CrewAI bieten hier die reichhaltigsten Optionen

Denken Sie daran: Das ideale Framework hängt von Ihren spezifischen Projektanforderungen ab. Eine Prototyp-Phase mit verschiedenen Frameworks kann wertvolle Einblicke liefern.

 

Fazit

Nach unserem umfassenden Vergleich lässt sich festhalten: Das OpenAI Agents SDK zeichnet sich durch seine Simplicity, hervorragendes Tool-Calling und integrierte Observability aus. Es ist die erste Wahl für Entwickler, die schnell produktionsreife Agenten im OpenAI-Ökosystem erstellen möchten.

Die Konkurrenzframeworks haben jedoch ihre eigenen Stärken:

  • LangGraph besticht durch unübertroffene Flexibilität für komplexe Workflows
  • CrewAI überzeugt mit seinem intuitiven Team-basierten Ansatz
  • AutoGen punktet mit seiner nahtlosen Microsoft-Integration

Die Entscheidung für ein Framework sollte stets auf Basis Ihrer spezifischen Anforderungen getroffen werden. Berücksichtigen Sie dabei Faktoren wie:

  • Komplexität Ihrer geplanten Agent-Architektur
  • Bevorzugte LLM-Provider
  • Bedeutung von Observability und Tracing
  • Vorhandenes Know-how im Team

Unsere Empfehlung: Bewerten Sie Ihre eigenen Anforderungen sorgfältig und starten Sie mit einem Prototyp im OpenAI Agents SDK. Seine niedrige Einstiegshürde und die solide Produktionsreife machen es zum idealen Ausgangspunkt für viele Anwendungsfälle.

Testen Sie das SDK, vergleichen Sie es mit CrewAI oder LangGraph und teilen Sie Ihre Erfahrungen. Die offizielle Dokumentation bietet einen hervorragenden Startpunkt: https://openai.github.io/openai-agents-python/

Das Feld der Agent-Frameworks entwickelt sich rasant weiter. Bleiben Sie neugierig, experimentieren Sie mit verschiedenen Ansätzen und finden Sie die Lösung, die Ihren spezifischen Anforderungen am besten gerecht wird.

https://openai.github.io/openai-agents-python/

 

FAQ

Was ist das OpenAI Agents SDK?

Das OpenAI Agents SDK ist eine leichtgewichtige Python-Bibliothek, die von OpenAI entwickelt und Anfang 2024 veröffentlicht wurde. Sie wurde speziell dafür konzipiert, die Erstellung von agentischen KI-Anwendungen zu vereinfachen.

Wofür eignet sich das SDK?

Das SDK eignet sich für eine Vielzahl von Anwendungsfällen wie:

  • Kundenservice-Bots mit Zugriff auf interne Wissensdatenbanken
  • Multi-Agent-Forschungssysteme (z.B. für Portfolio-Analysen)
  • Reiseplanungsassistenten mit Zugriff auf Flug- und Hoteldaten
  • Datenanalyse-Workflows mit Code-Interpreter-Funktionalität

Welche Kernfunktionen bietet das SDK?

Technisch betrachtet bietet das SDK mehrere Kernfunktionen:

  • Einen eingebauten Agent-Loop, der automatisch Tool-Aufrufe verarbeitet und Beobachtungen sammelt
  • Sessions für persistentes Memory, die auf SQLite basieren und Konversationsverläufe speichern
  • Eine umfassende Tracing-API für Debugging und Metriken-Erfassung
  • Realtime-Voice-Unterstützung mit gpt-realtime-1.5 für sprachbasierte Agenten

Wie funktioniert Tool-Calling im SDK?

Die Funktionsweise von Tool-Calling im SDK ist bemerkenswert einfach:

  • Python-Funktionen werden via Signaturen und Docstrings automatisch in JSON-Tools übersetzt, wobei Module wie Inspect und Pydantic zum Einsatz kommen.
  • Der Decorator @tool genügt, um eine Funktion als Tool zu registrieren: