Einfach und sicher – vorkonfigurierte KI-Entwicklung mit Docker
Docker stellt vorkonfigurierte KI-Anwendungen vor, mit denen Entwicklerinnen und Entwickler einfach und sicher KI-Modelle in Projekte implementieren.
Docker hat auf der DockerCon, seiner Hausmesse in Los Angeles, mit den beiden Werkzeugen GenAI-Stack und Docker AI eine großangelegte KI-Initiative ergriffen. Mit den Apps im GenAI-Stack binden Entwicklerinnen und Entwicklern auf einfache und sichere Weise vorkonfigurierte KI-Komponenten in ihre Projekte ein. Das Paket besteht aus vorbereiteten Large Language Modellen (LLMs), Vektor- und Graph-Datenbanken und dem LangChain-Framework. Docker AI hingegen unterstützt Anwenderinnen und Anwender kontextbezogen beim Konfigurieren der Docker-Systeme.
Das Stack-Paket enthält generative Anwendungsfälle, die Entwicklerinnen und Entwickler in ihren Projekten weiterverarbeiten. Es basiert auf vertrauenswürdigen Open-Source-Inhalten des Docker Hub. Im Detail:
- Vorbereitete LLMs wie Code Llama/Llama 2, GPT-3.5/4 und Mistral.
- Ollama für lokale Open-Source-LLMs.
- Neo4j Graph- und Vektordatenbank als Langzeitspeicher für Modelle. Die Anwendung findet darüber hinaus explizite und implizite Muster in Daten und beschleunigt Modelle.
- LangChain-Orchestrierung zwischen LLM, der Anwendung und der Datenbank.
- Unterstützende Tools, Code-Vorlagen und Anleitungen zu bewährten, generativen KI-Verfahren.
Entwicklerinnen und Entwickler erstellen damit Vektorindizes für Fragen und Antworten, fassen Daten zusammen und zeigen Suchergebnisse als Knowledge Graphen. Antworten erscheinen in Formaten wie Aufzählungen, Gedankengängen, GitHub-Problemen, PDFs oder Gedichten. Das KI-Paket liegt als Repository im Learning Center in Docker Desktop [1] vor.
Mit Docker AI, dem zweiten Teil der KI-Initiative, veröffentlicht der Hersteller sein erstes, eigenes KI-gestütztes Produkt, das Anwenderinnen und Anwendern beim Konfigurieren des Docker-Systems hilft, zum Beispiel beim Erstellen der Dockerfiles oder beim Debuggen der Konfiguration. Dabei arbeitet es kontextbezogen mit Best-Practice-Vorschlägen, ähnlich wie GitHub Copilot [2] beim Programmieren. Die KI basiert auf dem Wissen von Millionen Docker-Entwicklungen und ist in einem Early-Access-Programm [3] verfügbar.
(who [4])
URL dieses Artikels:
https://www.heise.de/-9328935
Links in diesem Artikel:
[1] https://github.com/docker/genai-stack
[2] https://www.heise.de/news/KI-Assistent-GitHub-Copilot-will-Code-nicht-klauen-sondern-sauber-referenzieren-9234532.html
[3] https://www.docker.com/ai-early-access-program/
[4] mailto:who@heise.de
Copyright © 2023 Heise Medien