Headless AI-plattform for søk, RAG og assistenter
TellusR er en verktøykasse for å bygge, tilpasse og skalere avanserte AI-søk, generative tjenester og assistentløsninger – med fleksibel arkitektur og dokumenterte API-er.
Slik kommer du i gang med TellusR
Grundig steg-for-steg dokumentasjon på:
TellusR Docs
Se hva som er mulig i vår statiske api-dokumentasjon:
API Docs
Kjør hvor du vil – med modeller du har tillit til
TellusR kan kjøres på infrastrukturen du foretrekker – enten på lokal server eller i preferert sky. Når du tar i bruk TellusR får du tilgang til følgende fire hovedmoduler:
Importermodul (Update assistant) for opplasting og tolkning av dokumenter, metadata og annet innhold
Søk/retrievermodul (Flow) som bl.a. finner og rangerer relevante tekstavsnitt på tvers av alt innhold, og leverer presis kontekst til søk og AI-funksjoner
Inference-tjeneste (NLP-service) for vektorisering av tekst og generering av tekst
Assistentmodul (Dialogue) for generative assistenter
Søk-/retrievermodulen benytter kompakte språkmodeller som lastes ned og kjøres lokalt sammen med TellusR. Dette gjør at indeksering, vektorisering og søk kan kjøres uten eksterne API-kall. Assistentmodulen kobles til en ekstern LLM (eller fler) for selve tekstgenereringen, og valg av modell styres fullt ut via konfigurasjon.
TellusR er plattformuavhengig og designet for å unngå vendor lock-in: du står fritt til å velge hvilke språkmodeller du vil bruke, og kan bytte leverandør uten å endre løsningen i bunn.
Quick wins – raskt i gang
Rask installasjon på egen server. One-liner for å laste ned
Docker Compose-fil som drar opp løsningen.
Støtter formater som Word, PDF, PowerPoint, HTML og Markdown.
Kommer med velprøvde standardoppsett på konfigurasjon og prompts, med støtte for fleksibel tuning
Ende-til-ende sporbarhet og observability i hele chat-pipelinen
AI-søk og AI-chat integrert med innebygget AI-testrammeverk
Nøkkelfunksjoner
Plattform og arkitektur
Headless og API-first arkitektur – all funksjonalitet kan integreres direkte i egne applikasjoner.
Høy konfigurerbarhet med full kontroll via dokumenterte API-endepunkter og konfigurasjonsgrensesnitt.
GPU-støtte og skalerbar kjøring på tvers av flere servere.
Fleksibel drift: kjør lokalt, på egen server eller i valgfri sky – uten vendor lock-in.
RAG, søk og kontekstleveranse
Avansert hybridsøk (tradisjonelt/semantisk)
Full kontroll på kontekst, chunking og kildeprioritering
Lokal kjøring av retriever-modellene
Assistentrammeverk
Støtte for å bygge egne assistenter og statiske assistent-pipelines.
Støtte for MCP (Model Context Protocol)
Innebygget prompt-editor med støtteverktøy for test og kvalitetssikring av promptendringer
Fritt LLM-valg
Observability og kvalitetssikring
Innebygget testrammeverk med støtte for både statiske tester og LLM-as-a-judge-scenarier – enkelt å legge inn, vedlikeholde og kjøre individuelle tester eller hele testsuiter.
Automatisert kvalitetsovervåkning: sammenlign testresultater på tvers av versjoner, oppdag regresjoner tidlig og dokumenter kvalitet før produksjonssetting.
Full sporbarhet og dybde-debugging i hele pipelinen – innsyn i kontekst, prompts, mellomsteg, hjelpeassistenter og generert svar, med mulighet til å drille ned i hvert steg for feilsøking og test.
Ekstra verdi for konsulenthus og software-team
Standardiserte API-er gir lav “vendor lock-in” – bygg egne tjenester på toppen, utvid eller bytt infrastrukturen uten å miste verdi.
Fleksibelt modellvalg gir frihet til å bruke det beste fra åpen kildekode, hyperscalere eller egen trening, med lav switching cost og uten endring i din kodebase.
Sikkerhet på enterprise-nivå – all databehandling og AI-kjøring kan gjøres bak brannmur, på lokal hardware eller nasjonal sky.
Aktivt brukt testrammeverk gjør at du kan levere produksjonsklare løsninger raskere og dokumentere kvaliteten til kundene dine.






