Categories: KI

Microsoft übernimmt OpenAIs Plug-in-Standard für ChatGPT

Microsoft hat auf seiner jährlichen Entwicklerkonferenz Build 2023 angekündigt, den von OpenAI vorgestellten Standard für Plug-ins für ChatGPT zu unterstützen. Entwickler erhalten so die Möglichkeit, Plug-ins zu erstellen, die auch auf die Struktur von Bing Chat zugreifen können.

“Bei einem Plug-in geht es darum, wie Sie, der Copilot-Entwickler, Ihrem Copiloten oder einem KI-System die Möglichkeit geben, über Fähigkeiten zu verfügen, die es im Moment noch nicht hat, und es mit Daten und Systemen zu verbinden, die Sie erstellen”, sagte Kevin Scott, Chief Technology Officer von Microsoft. “Ich glaube, es wird irgendwann ein unglaublich reichhaltiges Ökosystem von Plug-ins geben.

Neue Plug-ins für Klarna und Instacart

Zusätzlich zu den bereits angekündigten Plug-ins für OpenTable und Wolfram Alpha unterstützt Bing nun auch Plug-ins von Zillow, Klarna, Instacart, Kayak, Redfin und weiteren Anbietern. Die Integration gibt Nutzern direkt von Bing Chat aus Zugriff auf die fraglichen Dienste.

Mit der Unterstützung des Plug-in-Standards von OpenAI garantiert Microsoft zudem eine Interoperabilität zwischen ChatGPT und Microsofts hauseigenen Copilot-Programmen. Dazu gehören Dynamics 365 Copilot, Microsoft 365 Copilot und Windows Copilot. Darüber hinaus kündigte Microsoft an, die Copilot-Programme auszuweiten. So stehen ab sofort Vorabversionen von Copilot für Power BI und Copilot für Power Pages zur Verfügung. In Kürze soll auch eine Vorschau von Windows Copilot und Copilot für Microsoft Fabric starten.

“Wenn man sich Bing Chat anschaut, denkt man vielleicht, dass das eine super magische, komplizierte Sache ist, aber Microsoft gibt Entwicklern alles, was sie brauchen, um einen eigenen Copiloten zu entwickeln”, ergänzte Scott. “Ich denke, dass dies in den nächsten Jahren zu einer Erwartungshaltung für die Funktionsweise aller Software werden wird.”

Scott geht davon aus, dass nicht Microsoft, sondern unabhängige Entwickler künftige für die meisten neuen Copilots verantwortlich sein werden. Als Beispiel nannte er einen Copilot, der mit einem Large Language Model trainiert wurde und Zugang zu Geschäftdaten und Backend-Systeme hat. Das würde es dem Copilot erlauben, auf Anfragen von Mitarbeitern zu spezifischem Unternehmenswissen zu antworten.

“Der Punkt, an dem wir heute sind, ist einfach fantastisch. Man kann ein großes Sprachmodell wie GPT-4 nehmen und damit anfangen, Anwendungen zu erstellen”, so Scott weiter. “Wir haben diese neue Anwendungsplattform namens Copilot geschaffen.”

Stefan Beiersmann

Stefan unterstützt seit 2006 als Freier Mitarbeiter die Redaktionen von Silicon.de und ZDNet.de. Wenn andere noch schlafen, sichtet er bereits die Nachrichtenlage, sodass die ersten News des Tages meistens von ihm stammen.

Recent Posts

Domain-Hijacking: Angriff auf verwaiste Assets

Die unberechtigte Übernahme von Domains durch Dritte kann ernstzunehmende Folgen für Markenführung, Cybersecurity und Business…

4 Stunden ago

Bundesland Schleswig-Holstein setzt auf Open Source

Landesverwaltung wendet sich konsequent von Microsoft ab und setzt künftig auf Open Source Software.

1 Tag ago

Cybersicherheitssoftware: Der digitale Schutzschild für Unternehmen

In einer zunehmend digitalisierten Welt wird Cybersicherheit zu einer der zentralen Herausforderungen für Unternehmen aller…

1 Tag ago

Kostengünstiger Schutz gegen Quantenangriffe?

Das Karlsruher Institut für Technologie hat ein Verfahren vorgestellt, das klassische Kryptografie-Verfahren und herkömmliche Hardware…

1 Tag ago

Siemens investiert 5 Milliarden Dollar in US-Softwarehaus

Der Kauf von Dotmatics, Anbieter von F&E-Software, soll das PLM-Portfolio des Konzerns im Bereich Life…

2 Tagen ago

Fragmentierung von KI verhindern und Risiken reduzieren

Unternehmen wollen KI schnell einführen, doch dadurch entsteht Stückwerk, warnt Larissa Schneider von Unframe im…

2 Tagen ago