OpenAI hat die Enterprise AI-Landschaft am Dienstag mit der Veröffentlichung seiner umfassenden Agent-Building-Plattform umgestaltet-ein Paket, das eine überarbeitete Antworten-API, leistungsstarke integrierte Tools und eine Open-Source-Agenten SDK kombiniert.
Während diese Ankündigung möglicherweise von anderen KI-Schlagzeilen überschattet worden sein könnte-Googles Enthüllung des beeindruckenden Open-Source-Gemma 3-Modells und der Entstehung von Manus, einem chinesischen Startup, dessen autonome Agentenplattform die Beobachter erstaunt haben, ist es eindeutig ein erheblicher Schritt, sich der Unternehmen zu bewusst. Es konsolidiert ein zuvor fragmentiertes komplexes API-Ökosystem in ein einheitliches, produktionsbereites Rahmen.
Für Unternehmens -KI -Teams sind die Auswirkungen möglicherweise tiefgreifend: Projekte, die zuvor mehrere Frameworks, spezielle Vektor -Datenbanken und komplexe Orchestrierungslogik gefordert haben, können nun über eine einzige standardisierte Plattform erreicht werden. Vielleicht ist die implizite Anerkennung von Openai, dass die Lösung von KI -Agentenzuverlässigkeitsproblemen implizite Expertise erfordert, aber vielleicht am aufschlussreichsten. Diese Verschiebung erfolgt wachsende Beweise dafür, dass externe Entwickler revolutionary Lösungen für die Zuverlässigkeit von Agenten finden – etwas, das die schockierende Veröffentlichung von Manus auch deutlich demonstriert hat.
Diese strategische Konzession stellt einen kritischen Wendepunkt dar: OpenAI erkennt an, dass der Weg zu wirklich zuverlässigen Agenten selbst mit seinen enormen Ressourcen erfordert, dass es sich an externe Entwickler öffnet, die revolutionary Lösungen und Workarounds entdecken können, die die internen Teams von OpenAI möglicherweise vermissen.
Ein einheitlicher Ansatz zur Agentenentwicklung
Im Kern stellt die Ankündigung die umfassende Strategie von OpenAI dar, einen vollständigen, produktionsbereiten Stapel für den Bau von KI-Agenten bereitzustellen. Die Veröffentlichung bringt mehrere wichtige Funktionen in einen einheitlichen Rahmen:
- Der Antworten API Builds auf der API der Chat -Vervollständigungen fügt jedoch eine nahtlose Integration für die Verwendung von Tools hinzu, wobei das Design der Schnittstellen für das Erstellen von Agenten verbessert wird.
- Integrierte Werkzeuge Schließen Sie die Websuche, die Dateisuche und die Verwendung von Computer ein (die Technologie hinter der OpenAI -Bedienerfunktion);
- Eine Open-Source Agenten SDK zum Orchestrieren von Workflows mit Einzelagenten und Multi-Agenten mit Handoffs.
Was diese Ankündigung transformativ macht, ist, wie sie sich mit der Fragmentierung befasst, die die Entwicklung der Unternehmens -KI -Entwicklung geplagt hat. Unternehmen, die sich entscheiden, im API -Format von OpenAI und Open SDK zu standardisieren, müssen nicht mehr verschiedene Rahmenbedingungen zusammenstellen, komplexe schnelle Engineering verwalten oder mit unzuverlässigen Agenten zu kämpfen haben.
“Das Wort” zuverlässig “ist so wichtig” in einem Video -Podcast tiefer Tauchgang auf der Veröffentlichung. „Wir haben oft darüber gesprochen… die meisten Agenten sind einfach nicht zuverlässig. Und so schaut Openai wie: 'Okay, wie bringen wir diese Art von Zuverlässigkeit in?' “
Nach der Ankündigung, Jeff Weinstein, der Produktleiter von Zahlungsunternehmensunternehmen, Streifen Zu X nahm zu sagen, dass Stripe bereits demonstriert hatte Die praktische Anwendung von OpenAIs New Agents SDK durch Veröffentlichung eines Toolkits, mit dem Entwickler die Finanzdienstleistungen von Stripe in Agenten -Workflows integrieren können. Diese Integration ermöglicht die Erstellung von AI -Agenten, die Zahlungen an Auftragnehmer automatisieren können, indem Dateien geprüft werden, um zu sehen, wer Zahlung benötigt oder nicht, sowie Rechnungen und andere Transaktionen.
Strategische Auswirkungen auf OpenAI und den Markt
Diese Veröffentlichung zeigt eine signifikante Verschiebung der Strategie von OpenAI. Nachdem das Unternehmen einen Vorsprung mit Foundation -Modellen eingerichtet hat, konsolidiert es jetzt seine Position im Agent -Ökosystem durch mehrere berechnete Schritte:
1.. Öffnen Sie sich für externe Innovationen
OpenAI erkennt an, dass selbst seine umfangreichen Ressourcen nicht ausreichen, um die Innovation der Community zu übertreffen. Der Start von Tools und ein Open-Source-SDK deutet auf eine wichtige strategische Konzession hin.
Der Zeitpunkt der Veröffentlichung fiel mit der Entstehung von Manus zusammen, die die KI -Community mit einer sehr fähigen autonomen Agentenplattform beeindruckte und die Funktionen bestehender Modelle von Claude und QWEN demonstrieren, was im Wesentlichen zeigte, dass clevere Integration und schnelle Engineering die Zuverlässigkeit erreichen könnten, mit der selbst große AI -Labors zu kämpfen hatten.
“Vielleicht sind sogar Openai nicht die besten, um den Betreiber zu machen”, bemerkte Witteen und bezog sich auf das Webbrowsing-Tool, das Openai Ende Januar versandt hat, das wir jedoch fanden, hatte Fehler und war dem Konkurrenten-Proxy unterlegen. “Vielleicht hat das chinesische Startup einige nette Hacks in ihrer Eingabeaufforderung oder in allem, dass sie diese Art von Open-Source-Tools verwenden können.”
Die Lektion ist klar: OpenAI braucht die Innovation der Gemeinde, um die Zuverlässigkeit zu verbessern. Jedes Team, egal wie gut sie sind, ob es offen, anthropisch und Google ist – sie können einfach nicht so viele Dinge ausprobieren, wie es die Open -Source -Community kann.
2. Sicherung des Unternehmensmarktes durch API -Standardisierung
Das API -Format von OpenAI wurde als De -facto -Standard für LLM -Schnittstellen (Langwary Model) entwickelt, das von mehreren Anbietern unterstützt wird, darunter Googles Gemini und Metas LLAMA. Die Änderung von OpenAI in seiner API ist von Bedeutung, da viele Spieler von Drittanbietern in Einklang stehen und auch diese anderen Änderungen unterstützen.
OpenAI steuert den API -Standard und sorgt dafür, dass OpenAI einen leistungsstarken Netzwerkeffekt erzeugt. Enterprise -Kunden können die Agenten SDK übernehmen, die wissen, dass es mit mehreren Modellen funktioniert, aber OpenAI behält seine Position im Zentrum des Ökosystems bei.
3.. Konsolidierung der Lappenpipeline
Das Dateisuch -Tool fordert Datenbankunternehmen wie Pinecone, Chroma, Weaviate und andere heraus. OpenAI bietet jetzt ein komplettes Tool mit Abruf-Augmented Generation (RAG) Out-of-the-The-Box an. Die Frage ist nun, was mit dieser langen Liste von Lag -Anbietern oder anderen Agenten -Orchestrierungsanbietern passiert, die mit großen Finanzmitteln aufgetaucht sind, um die Gelegenheit zur KI für Enterprise zu verfolgen – wenn Sie nur einen Großteil davon über einen einzigen Standard wie OpenAI erhalten können.
Mit anderen Worten, Unternehmen können in Betracht ziehen, mehrere Anbieterbeziehungen in einen einzelnen API -Anbieter, OpenAI, zu konsolidieren. Unternehmen können alle Datendokumente hochladen, die sie mit den führenden Fundamentmodellen von OpenAI verwenden möchten – und alles innerhalb der API durchsuchen. Während Unternehmen im Vergleich zu dedizierten RAG-Datenbanken wie Pinecone Einschränkungen stoßen können, bieten die integrierten Datei- und Web-Search-Tools von OpenAI klare Zitate und URLs an-was für Unternehmen entscheidend ist, die die Transparenz und Genauigkeit priorisieren.
Diese Zitierfunktion ist der Schlüssel für Unternehmensumgebungen, in denen Transparenz und Überprüfung von wesentlicher Bedeutung sind. Damit können Benutzer genau dort verfolgen, woher Informationen stammen und ihre Genauigkeit gegen die ursprünglichen Dokumente validieren.
Die Entscheidungsfindung des Unternehmens
Für Entscheidungsträger für Unternehmen bietet diese Ankündigung die Möglichkeit, die Entwicklung der KI-Agenten zu optimieren, erfordert jedoch auch eine sorgfältige Bewertung der potenziellen Anbieter-Lock-In und der Integration mit vorhandenen Systemen.
1. Die Zuverlässigkeitszeit
Die Annahme von AI -Agenten der Unternehmen wurde durch Zuverlässigkeitsbedenken verlangsamt. OpenAIs Computer-Use-Tool erreicht beispielsweise 87% im WebVoyager-Benchmark für browserbasierte Aufgaben, aber nur 38,1% auf Osworld für Betriebssystemaufgaben.
Sogar Openai erkennt diese Einschränkung in ihrer Ankündigung an und sagte, dass die menschliche Aufsicht empfohlen wird. Durch die Bereitstellung der Tools und Beobachtbarkeitsfunktionen für die Verfolgung und Debugug -Agenten -Leistung können Unternehmen jetzt Vertreter mit geeigneten Leitplanken sicherer einsetzen.
2. Die Lock-In-Frage
Während die Übernahme von OpenAIs Agent-Ökosystem sofortige Vorteile bietet, wirft es Bedenken hinsichtlich der Verkäufer-Lock-In auf. Als Ashpreet Bedi, Gründer von Agnoagi, wies nach der Ankündigung auf: “Die Antworten -API ist absichtlich ausgelegt, um Entwickler daran zu hindern, die Anbieter zu wechseln, indem sie die Base_url ändern.”
OpenAI hat jedoch eine bedeutende Konzession gemacht, indem es seinen Agenten SDK ermöglicht, mit Modellen anderer Anbieter zusammenzuarbeiten. Der SDK unterstützt externe Modelle, vorausgesetzt, sie bieten einen API-Endpunkt im Chat-Abschluss im Stil. Dieser Multi-Model-Ansatz bietet Unternehmen eine gewisse Flexibilität und bleibt Openai im Zentrum.
3. Der Wettbewerbsvorteil des vollständigen Stacks
Der umfassende Charakter der Veröffentlichung – von Tools über API bis SDK – schafft einen überzeugenden Vorteil für OpenAI im Vergleich zu Wettbewerbern wie anthropisch oder google, die stückweise stückweise Ansätze zur Entwicklung der Agenten verfolgt haben.
Insbesondere Google hat den Ball fallen gelassen. Es hat mehrere verschiedene Möglichkeiten ausprobiert, dies aus ihren aktuellen Cloud -Angeboten zu tun, aber nicht zu dem Punkt, an dem jemand PDFs hochladen und Google Gemini für Rag verwenden kann.
Auswirkungen auf das Agenten -Ökosystem
Diese Ankündigung umgestaltet die Landschaft für Unternehmen, die im Agentenraum aufbauen. Spieler wie Langchain und Crewai, die Rahmenbedingungen für die Entwicklung der Agenten aufgebaut haben, sind nun mit direkter Konkurrenz von OpenAs Agents SDK ausgesetzt. Im Gegensatz zu OpenAI haben diese Unternehmen kein riesiges, wachsendes LLM -Unternehmen für die LLM, um ihre Rahmenbedingungen zu unterstützen. Diese Dynamik könnte die Konsolidierung im Rahmenbereich des Agenten beschleunigen, wobei Entwickler große Anreize für die produktionsbereite Lösung von OpenAI nutzen.
In der Zwischenzeit monetarisiert Openai die Nutzung des Entwicklers, berechnet (.3) pro Anruf für GPT-4O und (.2.5) für GPT-4O-Mini für Websuche, wobei die Preise auf 0,5 pro Anruf für hochkontextextübergreifende Suchanfragen stiegen.
Durch die Bereitstellung einer integrierten Orchestrierung über die Agenten SDK tritt OpenAI direkt mit Plattformen ein, die sich auf die Koordination der Agenten konzentrieren. Die Unterstützung des SDK für Multi-Agent-Workflows mit Handoffs, Leitplanken und Verfolgung erzeugt eine vollständige Lösung für Unternehmensanforderungen.
Ist die Produktionsbereitschaft gleich um die Ecke?
Es ist zu früh, um zu sagen, wie gut die neuen Lösungen funktionieren. Die Menschen beginnen erst jetzt, Agenten SDK für die Produktion zu verwenden. Trotz des umfassenden Charakters der Veröffentlichung bleiben Fragen bestehen, weil die früheren Versuche von OpenAI nach Agent -Frameworks wie dem experimentellen Schwarm und der Assistenten -API die Unternehmensbedürfnisse nicht vollständig erfüllt haben.
Für das Open-Source-Angebot ist unklar, ob OpenAI Anfragen und eingereichte Code von externen Personen annimmt.
Die Abwertung der Assistenten-API (geplant für Mitte 2026) signalisiert jedoch das Vertrauen von Openai in den neuen Ansatz. Im Gegensatz zur Assistenten -API, die nicht äußerst beliebt war, scheinen die neuen Antworten API und Agenten SDK nachdenklicher auf der Grundlage des Entwickler -Feedbacks gestaltet zu werden.
Ein echter strategischer Drehpunkt
Während Openai seit langem an der Spitze der Modellentwicklung der Stiftung steht, stellt diese Ankündigung einen strategischen Drehpunkt dar. Das Unternehmen könnte möglicherweise zur zentralen Plattform für die Entwicklung und Bereitstellung von Agenten werden.
Durch die Bereitstellung eines vollständigen Stapels von Tools bis zur Orchestrierung positioniert sich OpenAI, um den auf seinen Modellen erstellten Unternehmenswert zu erfassen. Gleichzeitig erkennt der Open-Source-Ansatz mit Agenten SDK an, dass selbst Openai nicht schnell genug isoliert genug innovieren kann.
Für Entscheidungsträger der Unternehmen ist die Nachricht klar: OpenAI geht auf Agenten als die nächste Grenze der KI-Entwicklung ein. Unabhängig davon, ob Sie kundenspezifische Agenten im eigenen Haus bauen oder mit Partnern zusammenarbeiten, Unternehmen jetzt einen zusammenhängenden, produktionsbereiteten Weg nach vorne haben-wenn auch einer, der Openai im Zentrum ihrer KI-Strategie stellt.
Die KI -Kriege sind in eine neue Phase eingetreten. Was als Rennen um den Aufbau der mächtigsten Foundation -Modelle begann, hat sich zu einem Kampf entwickelt, der das Agent -Ökosystem kontrollieren wird – und mit dieser umfassenden Veröffentlichung hat OpenAI gerade seinen entscheidenden Schritt unternommen, um alle Straßen auf Unternehmens -AI -Agenten durch seine Plattform zu führen.
Schauen Sie sich dieses Video an, um ein tieferes Tauchgespräch zwischen mir und dem Entwickler Sam Witteveen zu erhalten, was die OpenAI -Veröffentlichung für das Unternehmen bedeutet: