Enterprise AI Gateway mit Content-Filtering & Multi-Provider-Support Enterprise AI Gateway with Content Filtering & Multi-Provider Support
LLM-Proxy schützt Ihr Unternehmen vor Datenlecks durch KI-Nutzung. Filter vertrauliche Informationen automatisch, bevor sie an Claude, OpenAI oder andere LLM-Provider gesendet werden. DSGVO-konform, selbst gehostet, vollständige Kontrolle. LLM-Proxy protects your company from data leaks through AI usage. Automatically filter confidential information before it's sent to Claude, OpenAI, or other LLM providers. GDPR compliant, self-hosted, full control.
Ihre Mitarbeiter nutzen ChatGPT & Co. für die tägliche Arbeit – aber Sie haben keine Kontrolle darüber, welche vertraulichen Daten dabei nach außen gelangen. Your employees use ChatGPT & Co. for daily work – but you have no control over what confidential data is being shared externally.
Ein zentraler Gateway zwischen Ihren Mitarbeitern und allen LLM-Providern. Filtert automatisch vertrauliche Daten, protokolliert alle Anfragen und gibt Ihnen die volle Kontrolle zurück. One central gateway between your employees and all LLM providers. Automatically filters confidential data, logs all requests, and gives you back full control.
Entwickelt für IT-Profis und Enterprise-Anforderungen Built for IT professionals and enterprise requirements
Regex-basierte Filter für E-Mails, Telefonnummern, Kreditkarten, Adressen, Custom Patterns. Vertrauliche Daten werden automatisch erkannt und durch [REDACTED] ersetzt. Regex-based filters for emails, phone numbers, credit cards, addresses, custom patterns. Confidential data is automatically detected and replaced with [REDACTED].
Ein Interface für alle: Claude, OpenAI, Gemini, OpenRouter, Ollama, Custom APIs. Wechseln Sie Provider dynamisch ohne Code-Änderungen. One interface for all: Claude, OpenAI, Gemini, OpenRouter, Ollama, Custom APIs. Switch providers dynamically without code changes.
Echtzeit-Monitoring aller Requests, Usage Statistics, Cost Tracking, Client Management. Vollständige Transparenz über die KI-Nutzung im Unternehmen. Real-time monitoring of all requests, usage statistics, cost tracking, client management. Complete transparency about AI usage in your company.
Enterprise-grade Authentifizierung mit OAuth 2.0 oder API Keys. Client-basierte Rate Limiting und Model-Zugriffskontrolle. Enterprise-grade authentication with OAuth 2.0 or API keys. Client-based rate limiting and model access control.
Redis-basiertes Caching für identische Anfragen. Spart Kosten und beschleunigt Antworten. TTL und Cache-Strategie konfigurierbar. Redis-based caching for identical requests. Saves costs and accelerates responses. Configurable TTL and cache strategy.
Jede Anfrage wird in PostgreSQL protokolliert: Timestamp, Client, Model, Tokens, Kosten, Status. Compliance-ready für Audits. Every request is logged in PostgreSQL: timestamp, client, model, tokens, costs, status. Compliance-ready for audits.
Golang-basiert für maximale Performance. Handles 1000+ req/s. Prometheus Metrics für Production Monitoring. Golang-based for maximum performance. Handles 1000+ req/s. Prometheus metrics for production monitoring.
OpenAI-kompatible API. Ändern Sie nur die Base URL – der Rest bleibt gleich. SDKs für Python, JavaScript, Go verfügbar. OpenAI-compatible API. Just change the base URL – everything else stays the same. SDKs for Python, JavaScript, Go available.
Docker Compose Setup für schnelles Deployment. PostgreSQL & Redis inklusive. Production-ready in 5 Minuten. Docker Compose setup for quick deployment. PostgreSQL & Redis included. Production-ready in 5 minutes.
Battle-tested Technologien für Production Workloads Battle-tested technologies for production workloads
Golang 1.25 • Chi Router • Clean Architecture • SOLID Principles
PostgreSQL 14 • Migrations • Indexes • Foreign Keys • ACID
Redis 7 • TTL-based • LRU Eviction • Cluster-ready
Svelte • Vite • Tailwind CSS • Real-time Updates
OAuth 2.0 • API Keys • AES-256-GCM Encryption • Rate Limiting
Prometheus • Grafana • Request Logs • Health Checks
Docker • Docker Compose • Reverse Proxy (Caddy/Nginx)
Claude • OpenAI • Gemini • OpenRouter • Ollama • Custom
Von KMU bis Enterprise – LLM-Proxy passt sich Ihren Anforderungen an From SMB to Enterprise – LLM-Proxy adapts to your requirements
Zentrale KI-Nutzung für alle Mitarbeiter ohne versteckte Kosten. Ein Account, ein Dashboard, volle Kontrolle. Central AI usage for all employees without hidden costs. One account, one dashboard, full control.
Patientendaten automatisch filtern. HIPAA-konform, DSGVO-compliant. Keine sensiblen Daten verlassen Ihre Infrastruktur. Automatically filter patient data. HIPAA-compliant, GDPR-compliant. No sensitive data leaves your infrastructure.
Mandanteninformationen schützen. Automatische Schwärzung von Namen, Adressen, Aktenzeichen. Audit-Trail inklusive. Protect client information. Automatic redaction of names, addresses, case numbers. Audit trail included.
Code Review mit KI – ohne Source Code Leaks. API Keys, Secrets und proprietärer Code bleiben intern. Code review with AI – without source code leaks. API keys, secrets and proprietary code stay internal.
Client-spezifische KI-Nutzung mit Mandantentrennung. Kosten pro Projekt nachvollziehen. Multi-Tenant-fähig. Client-specific AI usage with tenant separation. Track costs per project. Multi-tenant capable.
Betriebsgeheimnisse und Fertigungsdaten schützen. On-Premise-Deployment für Air-Gapped Environments. Protect trade secrets and manufacturing data. On-premise deployment for air-gapped environments.
Starten Sie jetzt mit LLM-Proxy und schützen Sie Ihre sensiblen Daten bei der KI-Nutzung. Start now with LLM-Proxy and protect your sensitive data when using AI.
Oder direkt: Or directly:
💾 GitHub Repository 💾 GitHub Repository