Wir präsentieren neue Releases und schnelle KI bei Redis Released. Seien Sie am 30 September in München dabei.

Redis LangCache

Redis LangCache

Redis LangCache Hero
Reduziere Latenz und LLM-Kosten mit semantischem Caching

App-Performance und Kosten einfach managen mit semantischem Caching.

Redis LangCache Hero
Redis LangCache How it works

Wie’s funktioniert

LangCache merkt sich frühere LLM-Antworten mit semantischem Caching und spart so Zeit bei wiederholten Anfragen.

LangCache ruft das LLM nicht jedes Mal neu auf. Es prüft zuerst, ob es schon eine passende Antwort gibt und liefert sie direkt. Das ist schneller und günstiger.

Product benefits

Reduced cost
LLM-Kosten senken

Bis zu 90 % aller LLM-Aufrufe sind überflüssig. Spare Kosten, indem du häufig abgefragte Antworten einfach speicherst.

AI
Schnellere KI-App Reaktionen

RAG-Antworten werden 15 mal schneller, wenn gespeicherte Anfragen direkt aus dem Arbeitsspeicher abgerufen werden.

Flexible Deployment
Schnell einsatzbereit

Greif über eine REST API auf unseren Managed Service zu, inklusive automatischer Embeddings, flexibler Steuerung und einfacher Abrechnung.

Caching
Intelligentes Cache-Management

Verwalte Datenzugriff und Datenschutz, konfiguriere Löschregeln und behalte die Nutzung sowie Cache-Trefferraten im Blick.

Anwendungsbeispiele

KI-Assistenten mit RAG optimieren

LangCache sorgt für schnellere Antworten und geringere Kosten bei Chatbots und KI-Agenten.

RAG-Architekturen ansehen
Effiziente Agents entwickeln

Agents und mehrstufige Reasoning-Chains benötigen oft viele LLM-Aufrufe. Unser semantisches Caching spart LLM-Aufrufe und bringt mehr Tempo und Effizienz.

Agentenarchitekturen kennenlernen
Mach dein AI-Gateway besser

Wenn du zentrale Dienste baust, um LLM-Kosten und Sicherheit zu steuern, hilft dir LangCache dabei, KI-Gateways schneller und effizienter zu machen.

AI-Gateway optimieren

Direkt starten

Registriere dich für unser Private Preview

Häufige Fragen

Wer kann am Private Preview teilnehmen?

Das Private Preview richtet sich an Entwickler, Produktteams und Unternehmen, die an GenAI-Anwendungen wie RAG-Pipelines oder Agenten arbeiten. Teilnehmende sollten passende Use Cases haben und bereit sein, Feedback zu geben, um das Produkt mitzugestalten.

Kostet die Teilnahme am Private Preview etwas?

Nein, die Teilnahme ist gratis. Es gelten aber eventuell Limits oder spezielle Nutzungsbedingungen. Nach der Preview-Phase wird dein Account auf ein kostenpflichtiges Modell umgestellt.

Wie wird das Produkt bereitgestellt oder genutzt (z. B. über APIs, SDKs, Cloud-Dienste)?

LangCache ist über eine REST API sofort nutzbar, unabhängig von der Programmiersprache. Du kannst es mit jeder Sprache verwenden, ohne dich um Datenbankverwaltung kümmern zu müssen.

Wie wird mit Datensicherheit und Datenschutz umgegangen?

Deine Daten bleiben auf deinen Redis-Servern. Wir sehen sie nicht, speichern sie nicht und nutzen sie auch nicht für KI-Training.

Wie werde ich im Private Preview unterstützt?

Es gibt ausführliche Dokus, Support per E-Mail und Chat sowie regelmäßige Gespräche mit dem Produktteam, um Feedback zu teilen und Fragen schnell zu klären.

Wie bleibe ich über die Roadmap informiert?

Während des Private Previews halten wir dich über die Produkt-Roadmap auf dem Laufenden. Zusätzlich teilen wir Updates in Feedback-Gesprächen oder über andere Kommunikationswege mit dir.