• Home
  • Software
  • AI at Sensetence – LLMs, KI-Integration & selbstgehostete Lösungen

AI at Sensetence – LLMs, KI-Integration & selbstgehostete Lösungen

Wenn heutzutage über künstliche Intelligenz (KI) oder Articifial Intelligence (AI) gesprochen wird, denken viele sofort an Large Language Models (LLMs) wie OpenAI GPT. Doch KI ist weit mehr als nur LLMs. Sie umfasst regelbasierte Systeme, Machine Learning (ML), probabilistische Modelle (z. B. Bayes’sche Netze) und symbolische KI (z. B. Expertensysteme). Auch neuronale Netzwerke werden in vielen anderen Bereichen eingesetzt, etwa zur Bilderkennung (CNNs) oder für autonome Systeme (Reinforcement Learning). 
Trotzdem konzentrieren wir uns in diesem Artikel auf LLMs, denn sie sind aktuell die am weitesten verbreitete KI-Technologie und für viele Unternehmen besonders relevant. 

LLM selbst betreiben oder nicht?

Prinzipiell gibt es zwei Möglichkeiten, LLMs zu nutzen: 

  • Gehostete Lösungen (z. B. OpenAI API, Google Cloud AI, Azure AI, AWS Bedrock)
  • Selbstgehostete Lösungen (z. B. über OLLAMA auf eigener Hardware)

Selbstgehostete Modelle

Es gibt mittlerweile viele Open-Source-LLMs, die lokal betrieben werden können. Wir verfügen über die notwendige Hardware, um Modelle zu testen und auszuführen. Entscheidend ist dabei eine leistungsstarke Grafikkarte mit ausreichend VRAM – unsere RTX 3060 mit 12 GB reicht beispielsweise für folgende KI-Modelle: 

  • Llama 3 – Ein leistungsfähiges Open-Source-LLM von Meta
  • Mistral – Optimiert für hohe Effizienz und präzise Antworten
  • Gemma – Ein von Google entwickeltes Modell für Natural Language Processing (NLP)
  • Phi – Fokussiert auf effiziente KI-Anwendungen

Gehostete Modelle

Kommerzielle Anbieter von gehosteten KI-Modellen sind beispielsweise OpenAI, Google Cloud AI, Azure AI und AWS Bedrock. Sensetence hat bisher vor allem mit der OpenAI API gearbeitet.

Vorteile von gehosteten vs. selbstgehosteten Lösungen

Hosted SolutionSelf-hosted Solution
ModellqualitätHöher, da Unternehmen wie OpenAI riesige Ressourcen für das Training nutzenVariabel, oft nicht so gut wie gehostete Lösungen
KostenRelativ gering (z. B. pro API-Call)Hohe Hardwarekosten (z. B. Nvidia A100 mit 80 GB: ca. 26.000 € am 01.03.2025)
ImplementierungEinfach (keine eigene Infrastruktur nötig)Komplexer (erfordert Hosting, Infrastruktur, Wartung)

Verwendung in Kundensystemen

Bisher haben wir in Kundenprojekten primär OpenAI-Modelle eingesetzt, da sie nach unserer Erfahrung bessere Ergebnisse liefern als lokal gehostete Modelle. Außerdem sind unsere Kunden mit der Verarbeitung ihrer Daten durch OpenAI einverstanden. 

Beispielhafte KI-Anwendungsfälle in Kundensystemen: 

  • Automatische Erstellung von E-Mail-Vorschlägen
  • Korrektur und Optimierung von E-Mail-Texten für Marketingkampagnen
  • Verfassen von zusammenfassenden Texten basierend auf bereitgestellten Informationen (Börsendaten, Berichte, Zusammenfassungen aus anderen Quellen)

Verwendung in der Softwareentwicklung

Im Interesse der Effizienz und somit niedrigerer Kosten für unsere Kunden versuchen wir, mit den besten verfügbaren KI-Tools zu arbeiten. Deshalb setzen wir unter anderem auf: 

  • GitHub Copilot für effizientere Code-Generierung
  • LLM-Systeme für Softwareentwicklung, falls der Kunde mit deren Nutzung einverstanden ist
  • Training für Entwickler, um sicherzustellen, dass keine personenbezogenen Daten in öffentliche Modelle gelangen

Sensetence: Ihre KI-Integration für maßgeschneiderte Software

Sie möchten KI in Ihre Software integrieren? Sensetence ist Ihr Partner für maßgeschneiderte KI-Lösungen! Wir sind Spezialisten für Softwareentwicklung und bieten individuelle KI-Integration für automatisierte Workflows, intelligentes Datenmanagement und vieles mehr. 

Mit Sitz in Augsburg sind wir deutschlandweit tätig, ob vor Ort oder remote. Lassen Sie uns gemeinsam Ihre Software intelligenter machen!