[changes]
* Added a model dropdown list for the three primary providers (OpenAI, Gemini, and Claude) to the provider configuration in order to make it easier to choose your desired AI model.
* New AI Provider option: Azure OpenAI
* New OAuth Token option for hosting local LLMs via Ollama with authentication.
* Added support for streaming APIs, providing chunked output as it arrives from the AI Provider.
* Added support for function calling, providing the ability to provide the AI with tools it can call to fulfill its tasks.
* Added support for MCP clients either via npm or python. These can be set in the Configuration by system administrators and they can be provided to the AI when sending requests - caution is advised in the usage of MCP clients.
* New AI Provider Type "custom" which makes it possible to provide any OpenAI-compatible endpoint to connect to.

[changes:de]
* Eine Modellauswahlliste für die drei größten KI-Anbieter (OpenAI, Gemini und Claude) zur Konfiguration hinzugefügt, um es einfacher zu machen, das gewünschte KI-Modell auszuwählen.
* Neue KI-Provider-Option: Azure OpenAI
* Neue Option hinzugefügt, um einen OAuth-Token für Authentifizierung gegen lokale LLMs zu setzen, die mit Ollama gehostet werden.
* Unterstützung für Streaming hinzugefügt, damit die Antwort vom KI-Provider Stück für Stück direkt angezeigt werden kann.
* Unterstützung für Funktionsaufrufe hinzugefügt, damit der KI nötige Tools gegeben werden können, die sie aufrufen kann, um gewünschte Aufgaben zu erfüllen.
* MCP-Client Support sowohl via npm oder python hinzugefügt. Diese können von System-Administratoren in der Konfiguration gesetzt werden und der KI bei Aufrufen zur Verfügung gestellt werden. Wir raten zu Vorsicht beim Einsatz dieser Clients.
* Neuer KI-Provider-Typ “Benutzerdefiniert”, der es ermöglicht, irgend einen OpenAI-kompatiblen Endpunkt als Verbindung zu nutzen.

[bugfixes]

[bugfixes:de]

[security]

[security:de]

