Scribo kennenlernen
Schreibe wissenschaftliche Texte mit Scribo — dem in Gnosis integrierten LaTeX-Editor mit Zitat-Integration und lokaler KI.
Was ist Scribo?
Scribo ist der LaTeX-Editor der Kortexia Suite und ist in Gnosis integriert. Du schreibst in LaTeX, nutzt deine Gnosis-Bibliothek für Zitate und Literaturverzeichnis, siehst die PDF-Vorschau in der Split-View und kannst optional lokale KI (z. B. über Ollama) nutzen — alles ohne Cloud, alles auf deinem Rechner.
Einen neuen Text erstellen
- In Gnosis ein Projekt öffnen (oder anlegen)
- Scribo ist dort integriert: Neues Dokument anlegen oder eine LaTeX-Datei öffnen
- Wähle eine Vorlage (z. B. leeres Dokument, Kapitel, Paper) oder starte mit einer leeren
.tex-Datei
LaTeX schreiben
Scribo ist ein LaTeX-Editor (CodeMirror) mit Dark Theme, Folding, Bracket-Matching und Snippets. Die Bibliographie kommt aus Gnosis: Zitate werden automatisch in references.bib übernommen, das Literaturverzeichnis wird beim Kompilieren erzeugt.
Typische Arbeitsschritte
- Abschnitte:
\section{},\subsection{}— das Outline-Panel zeigt die Gliederung und springt per Klick zur Stelle - Zitate einbinden: Über die Gnosis-Integration (z. B. Cite-Autocomplete) wählst du Quellen aus deiner Bibliothek; die Einträge landen in der
.bib-Datei - Kompilierung: Tectonic oder latexmk; Log-Streaming, Fehler im Gutter, PDF-Vorschau aktualisiert sich nach dem Build
Zitate aus Gnosis
Die Zitat-Integration verbindet Scribo mit deiner Gnosis-Bibliothek:
- Im Editor die Gnosis-Zitatfunktion nutzen (z. B. Autocomplete oder Schnellzugriff)
- Quelle aus dem aktiven Projekt wählen
- Der Eintrag wird in die Referenz-Datei übernommen und steht für
\cite{}zur Verfügung - Beim Kompilieren erscheint das Literaturverzeichnis automatisch
PDF-Vorschau und Export
- Split-View: LaTeX-Editor und PDF-Vorschau nebeneinander; die Vorschau lädt nach jeder erfolgreichen Kompilierung neu
- Export: Das Ergebnis ist dein kompiliertes PDF (und ggf. weitere Formate je nach Setup)
Lokale KI-Unterstützung (optional)
Scribo kann über Ollama lokale Sprachmodelle nutzen — z. B. für Formulierungshilfen oder Umformulierungen. Alle KI-Features laufen auf deinem Rechner; keine Daten verlassen dein Gerät.