KI-Antworten zeigen jetzt [1][2] Quellenverweise — tippen Sie, um zur genauen Seite mit gelber Hervorhebung zu springen. Das On-Device-Embedding-Modell (E5 Multilingual) ermöglicht semantische Suche über Sprachen hinweg. Upgrade auf BM25-Suche für genauere Ergebnisse. Außerdem: OCR-Editor, layoutbewusste PDF-Tabellenextraktion und Transparenz der Suchpipeline.
Das integrierte lokale LLM (Qwen 3.5 4B) läuft vollständig auf Ihrem Gerät. Kein Internet, keine API-Aufrufe, keine Daten werden gesendet. Verfügbar für iOS und Android (Beta). Laden Sie das Modell einmal herunter (~3 GB) und chatten Sie völlig offline mit Ihren Dokumenten.
Importieren Sie Ihre Dokumente, stellen Sie Fragen in natürlicher Sprache und erhalten Sie KI-gestützte Antworten — alles direkt auf Ihrem Gerät verarbeitet.

"Was sind die Kündigungsklauseln?" "Fasse Kapitel 3 zusammen." Geben Sie einfach eine Frage in natürlicher Sprache ein und LocalRAG! durchsucht alle Ihre Dokumente nach den relevantesten Passagen. Kein Öffnen einzelner Dateien nötig — die KI liest alles für Sie.

PDF, EPUB, Word, Excel, PowerPoint, Bilder, gescannte Dokumente — 15 Dateiformate in einer einzigen Sammlung, alle auf einmal durchsuchbar. Whiteboard-Fotos und gescannte PDFs werden automatisch per OCR verarbeitet, um Text für KI-gestützte Fragen und Antworten zu extrahieren.

Jede KI-Antwort enthält Quellenangaben auf Seitenebene wie "Service-Agreement.pdf (S.12)" — so wissen Sie immer genau, aus welchem Dokument und welcher Seite die Antwort stammt. Vertrauen Sie KI niemals blind — überprüfen Sie anhand der Originalquelle.

Das integrierte lokale LLM (Qwen3 4B) läuft vollständig auf Ihrem Gerät. Keine Internetverbindung nötig, keine Daten werden an Server gesendet. Fragen Sie die KI bedenkenlos zu vertraulichen Dokumenten und persönlichen Dateien. Höhere Genauigkeit nötig? Wechseln Sie jederzeit zur Claude API.
Extrahieren Sie die wichtigsten Erkenntnisse aus langen Berichten, Handbüchern und Forschungsarbeiten in Sekunden.
Finden Sie Kündigungsklauseln, Wettbewerbsverbote, Zahlungsbedingungen und Risiken sofort.
Ergebnisse extrahieren, Methodik verstehen und mit wissenschaftlichen Arbeiten chatten.
Eines der wenigen KI-Tools mit nativer EPUB-Unterstützung. Kapitel zusammenfassen und Fragen stellen.
Importieren Sie Fotos von Whiteboards, Quittungen oder Dokumenten. Geräteinternes OCR extrahiert Text für KI-gestützte Fragen und Antworten.
PDF, Word, EPUB — egal welches Format, einfach zur Sammlung hinzufügen. Die KI durchsucht alle Dokumente auf einmal.

Meeting-PDFs, Word-Protokolle, Text-Notizen — das Format spielt keine Rolle. Zur Sammlung hinzufügen und fragen: „Was wurde zu diesem Thema entschieden?“ Nie wieder Dateien einzeln öffnen.

Importieren Sie Ihre ungelesenen PDFs und EPUBs zusammen. Ohne eine Seite zu lesen, fragen Sie „Was ist die Kernaussage dieses Buches?“ oder „Erkläre die Methode in Kapitel 3.“ Die KI liest jede Seite für Sie.

ISO-PDFs, RFC-Textdateien, interne Word-Richtlinien — alles in eine Sammlung laden. Fragen Sie „Welche Authentifizierungsanforderungen gibt es?“ und LocalRAG findet relevante Abschnitte in jedem Dokument.

Versicherungspolicen, Bedienungsanleitungen, Verträge, Rezepte. Fügen Sie alles zur Sammlung hinzu. Sie vergessen vielleicht, was drin ist, aber LocalRAG vergisst nie. Bei Bedarf einfach fragen — es sagt Ihnen, welches Dokument die Antwort enthält.
Sehen Sie, wie LocalRAG! Ihre Dokumente in Gespräche verwandelt.
Zwei Wege, mit Ihren Dokumenten zu chatten. Wählen Sie, was passt.
| On-Device-AI | Claude API | |
|---|---|---|
| Internet erforderlich | Nein — vollständig offline | Ja |
| Daten an Server gesendet | Keine — Zero Cloud | Nur Frage + relevante Auszüge |
| Antwortqualität | Gut (4B-Modell) | Ausgezeichnet (Opus / Sonnet / Haiku) |
| Antwortgeschwindigkeit | ~10 Sek. bis einige Min. | ~3 Sek. |
| Modell-Download | ~3 GB (einmalig) | Nicht erforderlich |
| Plattform | iOS & Android (Beta) | iOS & Android |
In beiden Modi wird die Dokumentenverarbeitung (Textextraktion, Indexierung, Suche) vollständig auf Ihrem Gerät durchgeführt. Die On-Device-AI geht noch weiter und generiert Antworten lokal — keine Daten verlassen jemals Ihr Gerät.
"Ich habe 12 Lehrbuch-PDFs importiert und gefragt: 'Erkläre den Unterschied zwischen TCP und UDP.' Ich bekam eine klare Antwort mit Seitenzahlen — kein Blättern durch 3.000 Seiten mehr."
"Ich habe 30 Paper in eine Sammlung geladen und gefragt: 'Welche Studien verwenden Transformer-basierte Modelle für medizinische Bildgebung?' In Sekunden fand ich 8 relevante Arbeiten."
"Ich habe ein 120-seitiges NDA überprüft, indem ich fragte: 'Gibt es Wettbewerbsverbote?' Es fand zwei — auf Seite 34 und 78 — die ich bei manueller Prüfung übersehen hätte."
"Die SOPs, Compliance-Dokumente und Meetingnotizen unseres Teams sind alle in einer Sammlung. Neue Mitarbeiter fragen einfach: 'Wie ist der Freigabeprozess für Lieferantenverträge?' und erhalten sofort eine Antwort."
Leistungsstarke Dokument-KI, die Ihre Privatsphäre respektiert.
PDF, EPUB, DOCX, XLSX, PPTX, TXT, MD, CSV, RTF, HTML, JPG, PNG, HEIC, WebP — plus gescannte und kopiergeschützte PDFs.
Stellen Sie Fragen zu Ihren Dokumenten in normaler Sprache. Erhalten Sie Antworten mit Quellenangaben.
KI-Antworten zeigen [1][2] Quellenverweise, die Sie antippen können. Springen Sie direkt zur zitierten Seite mit gelber Hervorhebung der genauen Passage.
Alle Dokumentenverarbeitung findet auf Ihrem Gerät statt. Ihre Dateien verlassen nie Ihr Gerät.
Okapi BM25-Suche mit On-Device-Embedding-Modell (E5 Multilingual) für semantische Suche über Sprachen hinweg. Fragen Sie auf Japanisch und finden Sie Antworten in englischen Dokumenten.
Importieren Sie Fotos von Whiteboards, Quittungen oder gescannten Dokumenten. Geräteinternes OCR extrahiert Text für sofortige Fragen und Antworten, und Sie können den extrahierten Text vor der Indexierung bearbeiten.
Organisieren Sie Dokumente in verschachtelten Ordnern mit bis zu 3 Ebenen. Der übergeordnete Bereich umfasst alle untergeordneten Dokumente für gezielte Fragen.
Das integrierte lokale LLM läuft vollständig auf Ihrem Gerät — kein Internet, keine API-Aufrufe, keine Datenübertragung. Echte Zero-Cloud-Dokumenten-AI.
Wählen Sie zwischen Claude Sonnet 4.5, Haiku 4.5, Opus 4 oder dem integrierten On-Device-AI-Modell. Optimieren Sie Geschwindigkeit, Genauigkeit und Kosten — oder arbeiten Sie komplett offline.
Drei einfache Schritte, um mit Ihren Dokumenten zu chatten.
Fügen Sie Dokumente aus dem Dateimanager oder anderen Apps hinzu. 15 Formate unterstützt.
LocalRAG! extrahiert Text und erstellt einen Suchindex — vollständig auf Ihrem Gerät.
Fragen Sie alles über Ihre Dokumente. Erhalten Sie KI-gestützte Antworten mit Quellenangaben.
Alle Dokumenttypen, mit denen Sie arbeiten, in einer App.
Die Dokumentenverarbeitung — Textextraktion, Chunking und Suchindex-Erstellung — erfolgt vollständig auf Ihrem Gerät. Ihre Dateien werden nirgendwo hochgeladen. Wenn Sie eine Frage stellen, werden nur Ihre Frage und die 10 relevantesten Textausschnitte (je ca. 500 Zeichen) an die Claude API gesendet. Das vollständige Dokument wird niemals übertragen. Im Offline-AI-Modus läuft das integrierte lokale LLM vollständig auf Ihrem Gerät — dabei werden keinerlei Daten an Server gesendet.
Cloud-basierte Dienste erfordern das Hochladen Ihres gesamten Dokuments auf deren Server. LocalRAG! behält Ihre Dateien auf Ihrem Gerät und sendet bei Fragen nur kleine, relevante Ausschnitte. Dadurch eignet es sich für sensible Dokumente wie Verträge, Krankenakten oder vertrauliche Forschungsunterlagen. Mit der integrierten On-Device-AI (iOS & Android (Beta)) können Sie zudem vollständig offline arbeiten — keine Daten verlassen Ihr Gerät.
Nein. Die API-Nutzungsrichtlinie von Anthropic legt ausdrücklich fest, dass API-Ein- und -Ausgaben nicht für das Modelltraining verwendet werden. Dies unterscheidet sich vom kostenlosen Claude-Verbraucherprodukt. Ihre Dokumentenausschnitte werden nach der Verarbeitung verworfen.
Ja. Der kostenlose Plan ermöglicht 5 Fragen pro Tag mit Claude Haiku sowie unbegrenzte Nutzung der On-Device-AI — komplett offline und ohne Limit. Sie können auch Ihren eigenen Anthropic API-Schlüssel (BYOK) verwenden und ohne Abonnementkosten unbegrenzten Zugang zu allen Modellen erhalten — Sie zahlen nur die API-Nutzung direkt an Anthropic.
LocalRAG! enthält ein integriertes Sprachmodell, das vollständig auf Ihrem Gerät läuft. Nach dem Download des Modells (~3 GB) können Sie Ihre Dokumente ohne Internetverbindung befragen. Antworten werden auf dem Gerät generiert — keine Daten werden an Server gesendet. Verfügbar in allen Tarifen. Verfügbar für iOS und Android (Beta).
LocalRAG! unterstützt 15 Formate: PDF, EPUB, DOCX, XLSX, PPTX, TXT, Markdown, CSV, RTF, HTML, JPG, PNG, HEIC und WebP. Gescannte und kopiergeschützte PDFs werden ebenfalls über die geräteinterne OCR unterstützt. Bilder werden mittels geräteeigener OCR verarbeitet, um Text zu extrahieren.
Starten Sie kostenlos mit 5 Fragen/Tag oder abonnieren Sie für mehr.
Free, Standard ($4.99/Monat) und Pro ($9.99/Monat) verfügbar. Jederzeit kündbar.
Nutzungsbedingungen · Datenschutz