Wie Foundation-Modelle und Retrieval Augmented Generation Geschäftsprozesse optimieren können
Am 31. Juli 2024 hat IONOS den AI Model Hub eingeführt, eine innovative Plattform, die KI-Modelle, einschließlich Large Language Modelle und Text to Image Modelle, bereitstellt. Diese Foundation-Modelle sind für die spezifischen Anforderungen unserer Kunden konzipiert und bieten sowohl Einfachheit als auch hohe Leistung.
Cloud-basierte und serverless Architektur
Der IONOS AI Model Hub wird in der Cloud gehostet, ist serverless und ermöglicht es Kunden, Künstliche Intelligenz (KI) einfach in ihre Anwendungen zu integrieren. Über eine leicht anzusprechende API können IONOS-Kundinnen und -Kunden nicht nur auf verschiedene Foundation Modelle zugreifen, sondern auch ihre eigenen Dokumente in die bereitgestellten Vektordatenbanken laden.
Dieser Technologie-Stack ermöglicht die Realisierung ganzer Retrieval Augmented Generation (RAG) Use Cases: Bei IONOS realisierte Lösungen antworten nicht nur mit dem integrierten Trainings-Wissen des Large Language Modells, sondern auch mit dem stets aktuellen Datensatz des Kunden. Dadurch erreichen die generierten Texte ein neues Level an Aktualität, Genauigkeit und Individualität.
Vielfalt und Innovation durch Auswahl an Foundation Modellen
Der IONOS AI Model Hub bietet vom ersten Tag an eine Auswahl an Open Source Foundation Modellen von renommierten Herstellern wie Meta, Mistral und Stability AI:
- Meta: Modelle wie Llama 3 8B instruct und Llama 3 70B instruct, die ideal für natürliche Sprachaufgaben sind.
- Mistral: Mistral 7B Instruct v0.2 und 8x7B, welche besonders für längere europäische Texte geeignet sind.
- Stability AI: Stable Diffusion XL, bekannt für die Visualisierung von Texten in hochqualitativen Bildern.
Weitere Kernmerkmale des IONOS AI Model Hubs:
Intuitive API: Mittels einer REST API lässt sich unsere Lösung in bestehende Anwendungen einbinden. Unabhängig von der eingesetzten Programmiersprache können so KI-Funktionen genutzt werden.
OpenAI Kompatibilitiät: Die API folgt der OpenAI Spezifikation. So können bestehende Projekte einfach zu IONOS migriert oder die Foundation Modelle von IONOS einfach in Lösungen von Drittanbietern integriert werden.
Open-Source-Kompatibilität: Der IONOS AI Model Hub ist unabhängig von einzelnen Anbietern, indem zuverlässige Open Source AI Modelle genutzt werden, die wiederum mit regelmäßigen Updates versorgt werden.
Data Collections und Vektordatenbanken: Durch das Laden eigener Dokumente in Data Collections unserer Vektordatenbank werden sogenannte Embeddings generiert, welche die semantische Information der Texte widerspiegeln. So lassen sich die Stärken von KI für Suchprozesse in unstrukturierten Dokumenten nutzen, um noch relevantere Ergebnisse zu finden.
Optimierung durch Retrieval Augmented Generation (RAG)
Im IONOS AI Model Hub wird die fortschrittliche Technologie der Retrieval Augmented Generation (RAG) effektiv eingesetzt. Diese Technologie kombiniert Large Language Modelle Modelle und Vektordatenbanken. Nutzeranfragen werden an eine Vektordatenbank gesendet, in der semantisch ähnliche Dokumente identifiziert werden. Diese relevanten Dokumente werden zusammen mit der ursprünglichen Anfrage an das Large Language Modelle weitergeleitet. Diese Modelle verarbeiten die Daten und generieren präzise Antworten, die maßgeschneidert auf den spezifischen Use Case des Nutzers sind und direkt zurückgesendet werden. Durch diesen Prozess ermöglicht der IONOS AI Model Hub eine nahtlose Integration aktueller und relevanter Daten in die KI-gestützte Antwortgenerierung, ohne dass dafür ein separates Training der Modelle notwendig ist.
Unsere API erlaubt das Durchführen solcher RAG Anfragen mit nur einem Request:
def retrieval_augmented_generation(model: str, collection_id: str, user_query: str) -> str:
endpoint = f"https://inference.de-fra.ionos.com/models/{model}/predictions"
body = { "properties": {
"input": f"""
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
Please use the information specified as context to answer the question.
Formulate you answer in one sentence and be a honest AI.<|eot_id|>
<|begin_of_text|><|start_header_id|>context<|end_header_id|>
{{{{.context}}}}<|eot_id|>
<|start_header_id|>user<|end_header_id|>
{{{{.collection_query}}}} <|eot_id|>
<|start_header_id|>assistant<|end_header_id|>
""",
"collectionId": collection_id,
"collectionQuery": user_query,
"options": {
"max_length": "500",
"temperature": "0.01"
}
}}
result = requests.post(endpoint, json=body, headers=HEADERS)
return result.json()['properties']['output'].strip()
Es müssen hierzu lediglich die Data Collection in der Vektordatenbank über den Parameter “collectionId” und die Anfrage des Nutzers über den Parameter “collectionQuery” angegeben werden. Die Dokumente, die der Anfrage des Nutzers am stärksten ähneln, können dann direkt im Prompt genutzt werden.
Vorteile durch den Einsatz des IONOS AI Model Hub:
Fokus auf die Entwicklung: Die serverless and API-first-Architektur von IONOS bedeutet einfachere Umsetzung und reduzierter Wartungsaufwand. So können sich Entwickler auf die Implementierung und das Deployment ihrer KI Anwendungen konzentrieren, ohne sich um das Management der darunterliegenden Infrastruktur kümmern zu müssen.
Kosteneffizienz: Mit dem Pay-as-you-Go-Preismodell ist sichergestellt, dass nur die tatsächliche Nutzung abgerechnet wird und nicht eine permanent laufende, dedizierte Instanz. Dies ist kosteneffizient für Anwendungen mit variablen AI-Inference-Anforderungen. Setup-Kosten entstehen bei diesem Ansatz nicht.
Skalierbarkeit: Der AI Model Hub wächst mit den Anforderungen. Mit dieser Skalierbarkeit ist immer optimale Performanz und Ressourcenallokation sichergestellt, so dass sich Kundinnen und Kunden von IONOS auf das Wachstum ihrer Projekte fokussieren können und sich nicht auf das Management ihrer Infrastruktur konzentrieren müssen.
Hohe Verfügbarkeit: Durch den Einsatz redundanter Systeme und Failover-Mechanismen, minimiert der AI Model Hub Unterbrechungen und gewährleistet einen durchgehenden Betrieb. Die User Experience ist somit optimal und Zugriff auf die KI-Funktionen immer sichergestellt.
Data Privacy: Kundendaten werden in keinem Fall genutzt, um KI Modelle zu trainieren. So ist sichergestellt, dass Privacy- und Compliance-Anforderungen stets erfüllt werden. Die Lösung ist damit für Organisationen in regulierten Umgebungen und für Anwendungsfälle mit hohen Datensicherheitsanforderungen geeignet.
Datensouveränität: Durch das Hosting der Modelle in einem deutschen IONOS Rechenzentrum, ist die Einhaltung von EU-Regularien sichergestellt. IONOS-Kundinnen und -Kunden profitieren so von einer sicheren Umgebung, die strengen Datenschutzgesetzen entspricht.
Der IONOS AI Model Hub eröffnet neue Möglichkeiten für Unternehmen, die moderne Künstliche Intelligenz sicher und effizient einsetzen möchten. Erfahren Sie mehr und beginnen Sie Ihre Reise mit IONOS, um Ihre KI-Anforderungen neu zu definieren.
Weiterführende Links:
Die erste deutsche, multimodale KI-Plattform