HomeArtificial IntelligenceWas ist die minimal realisierbare Infrastruktur, die Ihr Unternehmen für KI benötigt?

Was ist die minimal realisierbare Infrastruktur, die Ihr Unternehmen für KI benötigt?

Während wir uns der Mitte des Jahrzehnts der 2020er-Jahre nähern, überlegen sich Unternehmen aller Größen und Branchen zunehmend, wie sie generative KI einsetzen können, um die Effizienz zu steigern und den Zeitaufwand für sich wiederholende, mühsame Aufgaben zu reduzieren.

In gewisser Weise entwickelt sich die Verwendung einer generativen KI-Anwendung oder eines generativen KI-Assistenten schnell von einem „nice to have“ zu einem „should have“.

Aber welche Infrastruktur ist mindestens erforderlich, um diese Vorteile zu erzielen? Unabhängig davon, ob Sie ein großes Unternehmen oder ein kleines Unternehmen sind, ist es von entscheidender Bedeutung, die wesentlichen Komponenten einer KI-Lösung zu verstehen.

Dieser Leitfaden – informiert von Branchenführern, darunter Experten von Umarmendes Gesicht Und Google – beschreibt die Schlüsselelemente, von der Datenspeicherung und der LLM-Integration (Large Language Model) bis hin zu Entwicklungsressourcen, Kosten und Zeitplänen, um Ihnen dabei zu helfen, fundierte Entscheidungen zu treffen.

>>Verpassen Sie nicht unsere Sonderausgabe: Fit for Purpose: Tailoring AI Infrastructure.<

Datenspeicherung und Datenmanagement

Die Grundlage jedes effektiven Gen-KI-Systems sind Daten – insbesondere oder zumindest Daten, die für das Geschäft und/oder die Ziele Ihres Unternehmens relevant sind.

Ja, Ihr Unternehmen kann sofort handelsübliche Chatbots verwenden, die auf großen Sprachmodellen (LLMs) wie Gemini von Google, ChatGPT von OpenAI, Anthropic Claude oder anderen im Internet verfügbaren Chatbots basieren und bei bestimmten Unternehmensaufgaben hilfreich sein können. Und das ohne Eingabe von Unternehmensdaten.

Wenn Sie diese jedoch nicht mit den Daten Ihres Unternehmens füttern – was aufgrund von Sicherheitsbedenken oder Unternehmensrichtlinien möglicherweise nicht zulässig ist – können Sie nicht alle Vorteile von LLMs nutzen.

Der erste Schritt bei der Entwicklung eines hilfreichen KI-Produkts, das Ihr Unternehmen intern oder extern verwenden kann, besteht also darin, zu verstehen, ob es sich um ein öffentliches oder privates Produkt handelt, das Sie auf Ihren eigenen Servern steuern. Auch ob es ist oder .

Strukturierte Daten werden typischerweise in Datenbanken und Tabellenkalkulationen organisiert, mit klar definierten Feldern wie Datumsangaben, Zahlen und Texteinträgen. Beispiele für strukturierte Daten sind beispielsweise Finanzunterlagen oder Kundendaten, die sauber in Zeilen und Spalten passen.

Unstrukturierte Daten hingegen haben kein einheitliches Format und sind nicht in einer vordefinierten Weise organisiert. Es umfasst verschiedene Arten von Inhalten wie E-Mails, Videos, Social-Media-Beiträge und Dokumente, die nicht ohne weiteres in herkömmliche Datenbanken passen. Diese Art von Daten ist aufgrund ihrer Vielfalt und Uneinheitlichkeit schwieriger zu analysieren.

Diese Daten können alles umfassen, von Kundeninteraktionen und Personalrichtlinien bis hin zu Verkaufsunterlagen und Schulungsmaterialien. Abhängig von Ihrem Anwendungsfall für KI – interne Entwicklung von Produkten für Mitarbeiter oder externe Entwicklung für Kunden – wird sich der von Ihnen eingeschlagene Weg wahrscheinlich ändern.

Nehmen wir einen hypothetischen Möbelhersteller – die „Chair Company“ – der Stühle für Verbraucher und Unternehmen aus Holz herstellt.

Diese Stuhlfirma möchte einen internen Chatbot für Mitarbeiter erstellen, der häufig gestellte Fragen beantworten kann, z. B. wie man Spesen einreicht, wie man Urlaub beantragt und wo sich Akten zum Bau von Stühlen befinden.

Das Lehrstuhlunternehmen kann in diesem Fall diese Dateien bereits auf einem Cloud-Dienst wie Google Cloud, Microsoft Azure oder AWS gespeichert haben. Für viele Unternehmen kann die direkte Integration von KI-Funktionen in bestehende Cloud-Plattformen den Bereitstellungsprozess erheblich vereinfachen.

Google Workspace ermöglicht es Unternehmen in Kombination mit Vertex AI, ihre vorhandenen Daten in Produktivitätstools wie Docs und Gmail zu nutzen.

Ein Google-Sprecher erklärte gegenüber VentureBeat: „Mit Model Garden von Vertex AI können Unternehmen aus über 150 vorgefertigten Modellen wählen, die ihren spezifischen Anforderungen entsprechen, und sie nahtlos in ihre Arbeitsabläufe integrieren.“ Diese Integration ermöglicht die Erstellung benutzerdefinierter Agenten innerhalb von Google Workspace-Apps, wodurch Prozesse optimiert und wertvolle Zeit für die Mitarbeiter freigesetzt werden.“

Bristol Myers Squibb nutzte beispielsweise Vertex AI, um Dokumentenprozesse in seinen klinischen Studien zu automatisieren und demonstrierte damit, wie wirkungsvoll diese Integrationen bei der Transformation von Geschäftsabläufen sein können. Für kleinere Unternehmen oder KI-Neulinge bietet diese Integration einen benutzerfreundlichen Einstiegspunkt, um die Leistungsfähigkeit der KI ohne großen technischen Aufwand zu nutzen.

Was aber, wenn die Daten des Unternehmens nur im Intranet oder auf lokalen privaten Servern gespeichert sind? Das Chair-Unternehmen – oder jedes andere in einem ähnlichen Boot – kann weiterhin LLMs nutzen und einen Chatbot erstellen, um Unternehmensfragen zu beantworten. Allerdings werden sie wahrscheinlich stattdessen eines der vielen Open-Source-Modelle einsetzen wollen, die von der Coding-Community Hugging Face verfügbar sind.

„Wenn Sie in einer stark regulierten Branche wie dem Bankwesen oder dem Gesundheitswesen tätig sind, müssen Sie möglicherweise alles intern verwalten“, erklärte Jeff Boudier, Leiter Produkt und Wachstum bei Hugging Face, kürzlich in einem Interview mit VentureBeat. „In solchen Fällen können Sie weiterhin Open-Source-Tools verwenden, die auf Ihrer eigenen Infrastruktur gehostet werden.“

Boudier hat das folgende Demovideo für VentureBeat aufgenommen, das zeigt, wie man die Website von Hugging Face und die verfügbaren Modelle und Tools nutzt, um einen KI-Assistenten für ein Unternehmen zu erstellen.

Ein großes Sprachmodell (LLM)

Sobald Sie festgelegt haben, welche Unternehmensdaten Sie in ein KI-Produkt einspeisen können und wollen, besteht der nächste Schritt darin, das große Sprachmodell (LLM) auszuwählen, mit dem es betrieben werden soll.

Die Wahl des richtigen LLM ist ein entscheidender Schritt beim Aufbau Ihrer KI-Infrastruktur. LLMs wie GPT-4 von OpenAI, DialogFlow von Google und die auf Hugging Face gehosteten offenen Modelle bieten unterschiedliche Funktionen und Anpassungsebenen. Die Wahl hängt von Ihren spezifischen Bedürfnissen, Datenschutzbedenken und Ihrem Budget ab.

Diejenigen, die mit der Überwachung und Implementierung der KI-Integration in einem Unternehmen beauftragt sind, müssen verschiedene LLMs bewerten und vergleichen, was sie mithilfe von Websites und Diensten wie dem tun können LMSYS Chatbot Arena-Bestenliste auf Hugging Face.

Wenn Sie sich für ein proprietäres LLM wie die GPT-Serie von OpenAI, die Claude-Familie von Anthropic oder die Gemini-Serie von Google entscheiden, müssen Sie das LLM über die private Anwendungsprogrammierschnittstelle (API) des LLM-Anbieters finden und in Ihre Datenbank einbinden.

Wenn das Lehrstuhlunternehmen oder Ihr Unternehmen hingegen ein Modell auf seiner eigenen privaten Infrastruktur hosten möchte, um die Kontrolle und Datensicherheit zu verbessern, dann ist ein Open-Source-LLM wahrscheinlich der richtige Weg.

Boudier erklärt: „Der Hauptvorteil offener Modelle besteht darin, dass Sie sie selbst hosten können. Dadurch wird sichergestellt, dass das Verhalten Ihrer Anwendung konsistent bleibt, selbst wenn das ursprüngliche Modell aktualisiert oder geändert wird.“

VentureBeat hat bereits über die wachsende Zahl von Unternehmen berichtet, die Open-Source-LLMs und KI-Modelle von Unternehmen wie Meta's Llama und anderen Anbietern und unabhängigen Entwicklern übernehmen.

Retrieval-Augmented Generation (RAG)-Framework

Damit ein Chatbot oder ein KI-System genaue und relevante Antworten liefern kann, ist die Integration eines RAG-Frameworks (Retrieval Augmented Generation) unerlässlich.

Dabei wird ein Retriever verwendet, um auf der Grundlage von Benutzeranfragen nach relevanten Dokumenten zu suchen, und ein Generator (ein LLM) wird verwendet, um die Informationen zu kohärenten Antworten zusammenzufassen.

Für die Implementierung eines RAG-Frameworks ist eine Vektordatenbank wie Pinecone oder Milvus erforderlich, die Dokumenteinbettungen speichert – strukturierte Darstellungen Ihrer Daten, die es der KI erleichtern, relevante Informationen abzurufen.

Das RAG-Framework ist besonders nützlich für Unternehmen, die proprietäre Unternehmensdaten integrieren müssen, die in verschiedenen Formaten wie PDFs, Word-Dokumenten und Tabellenkalkulationen gespeichert sind.

Dieser Ansatz ermöglicht es der KI, relevante Daten dynamisch abzurufen und so sicherzustellen, dass die Antworten aktuell und kontextuell korrekt sind.

Laut Boudier ist „die Erstellung von Einbettungen oder die Vektorisierung von Dokumenten ein entscheidender Schritt, um Daten für die KI zugänglich zu machen.“ Diese Zwischendarstellung ermöglicht es der KI, Informationen schnell abzurufen und zu nutzen, egal ob es sich um textbasierte Dokumente oder sogar Bilder und Diagramme handelt.“

Entwicklungskompetenz und Ressourcen

Obwohl KI-Plattformen immer benutzerfreundlicher werden, ist für die Implementierung immer noch ein gewisses technisches Fachwissen erforderlich. Hier ist eine Aufschlüsselung dessen, was Sie möglicherweise benötigen:

  • Grundeinrichtung: Für eine unkomplizierte Bereitstellung mithilfe vorgefertigter Modelle und Cloud-Dienste sollten Ihre vorhandenen IT-Mitarbeiter mit einer gewissen KI-Schulung ausreichen.
  • Kundenspezifische Entwicklung: Für komplexere Anforderungen wie die Feinabstimmung von Modellen oder eine tiefe Integration in Geschäftsprozesse benötigen Sie Datenwissenschaftler, Ingenieure für maschinelles Lernen und Softwareentwickler mit Erfahrung im NLP- und KI-Modelltraining.

Für Unternehmen, denen es an internen Ressourcen mangelt, ist die Zusammenarbeit mit einer externen Agentur eine sinnvolle Option. Die Entwicklungskosten für einen einfachen Chatbot liegen zwischen 15.000 und 30.000 US-Dollar, während komplexere KI-gesteuerte Lösungen 150.000 US-Dollar übersteigen können.

„Die Erstellung eines benutzerdefinierten KI-Modells ist mit den richtigen Tools möglich, aber für speziellere Aufgaben wie die Feinabstimmung von Modellen oder den Aufbau einer privaten Infrastruktur benötigen Sie technisches Fachwissen“, bemerkte Boudier. „Mit Hugging Face stellen wir die Tools und Community-Unterstützung zur Verfügung, um Unternehmen zu helfen, aber für eine erfolgreiche Umsetzung ist es nach wie vor unerlässlich, die richtigen Talente zu haben oder einzustellen.“

Für Unternehmen ohne umfassende technische Ressourcen bietet Googles AppSheet eine No-Code-Plattform, mit der Benutzer benutzerdefinierte Anwendungen erstellen können, indem sie ihre Anforderungen einfach in natürlicher Sprache beschreiben. AppSheet ist in KI-Funktionen wie Gemini integriert und ermöglicht die schnelle Entwicklung von Tools für Aufgaben wie Anlageninspektionen, Bestandsverwaltung und Genehmigungsworkflows – alles ohne herkömmliche Programmierkenntnisse. Dies macht es zu einem leistungsstarken Tool zur Automatisierung von Geschäftsprozessen und zur Erstellung maßgeschneiderter Chatbots.

Zeit- und Budgetüberlegungen

Die Implementierung einer KI-Lösung erfordert sowohl Zeit als auch finanzielle Investitionen. Folgendes erwartet Sie:

  • Entwicklungszeit: Ein einfacher Chatbot kann mit vorgefertigten Modellen in 1–2 Wochen entwickelt werden. Bei fortgeschritteneren Systemen, die ein individuelles Modelltraining und eine Datenintegration erfordern, kann es jedoch mehrere Monate dauern.
  • Kosten: Planen Sie für die interne Entwicklung etwa 10.000 US-Dollar pro Monat ein, wobei die Gesamtkosten bei komplexen Projekten möglicherweise bis zu 150.000 US-Dollar betragen können. Abonnementbasierte Modelle bieten günstigere Einstiegspunkte, wobei die Kosten je nach Funktionen und Nutzung zwischen 0 und 5.000 US-Dollar pro Monat liegen.

Bereitstellung und Wartung

Sobald Ihr KI-System entwickelt ist, muss es regelmäßig gewartet und aktualisiert werden, um effektiv zu bleiben. Dazu gehört die Überwachung, Feinabstimmung und möglicherweise Neuschulung des Modells, wenn sich Ihre Geschäftsanforderungen und Daten weiterentwickeln. Abhängig von der Komplexität des Systems und dem Umfang der Interaktionen können die Wartungskosten bei 5.000 US-Dollar pro Monat beginnen.

Wenn Ihr Unternehmen in einer regulierten Branche wie dem Finanz- oder Gesundheitswesen tätig ist, müssen Sie das KI-System möglicherweise auf einer privaten Infrastruktur hosten, um die Datenschutzbestimmungen einzuhalten. Boudier erklärte: „Für Branchen, in denen die Datensicherheit von größter Bedeutung ist, gewährleistet das interne Hosten des KI-Modells die Einhaltung von Vorschriften und die vollständige Kontrolle über das Daten- und Modellverhalten.“

Letzte Erkenntnisse

Um eine minimal funktionsfähige KI-Infrastruktur für Ihr Unternehmen einzurichten, benötigen Sie:

  • Cloud-Speicher und Datenmanagement: Organisieren und verwalten Sie Ihre Daten effizient mithilfe eines Intranets, privater Server, privater Clouds, Hybrid Clouds oder kommerzieller Cloud-Plattformen wie Google Cloud, Azure oder AWS.
  • Ein passendes LLM: Wählen Sie ein Modell, das Ihren Anforderungen entspricht, egal ob es auf einer Cloud-Plattform gehostet oder in einer privaten Infrastruktur bereitgestellt wird.
  • Ein RAG-Framework: Implementieren Sie dies, um relevante Daten dynamisch aus Ihrer Wissensdatenbank abzurufen und zu integrieren.
  • Entwicklungsressourcen: Ziehen Sie internes Fachwissen oder externe Agenturen für den Aufbau, die Bereitstellung und die Wartung Ihres KI-Systems in Betracht.
  • Budget und Zeitaufteilung: Rechnen Sie mit Anfangskosten zwischen 15.000 und 150.000 US-Dollar und einer Entwicklungszeit von einigen Wochen bis mehreren Monaten, je nach Komplexität.
  • Laufende Wartung: Regelmäßige Aktualisierungen und Überwachung sind erforderlich, um sicherzustellen, dass das System effektiv bleibt und auf die Geschäftsziele abgestimmt bleibt.

Indem Sie diese Elemente an Ihren Geschäftsanforderungen ausrichten, können Sie eine robuste KI-Lösung erstellen, die die Effizienz steigert, Aufgaben automatisiert und wertvolle Erkenntnisse liefert – und das alles, während Sie gleichzeitig die Kontrolle über Ihren Technologie-Stack behalten.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Must Read