#Definition: Generative vs. Agentic
Generative AI (wie ChatGPT) ist eine Statistik-Maschine, die das nächste Token vorhersagt. Sie kann ein Gedicht schreiben, aber keinen Flug buchen.
Agentic AI verbindet das LLM mit Werkzeugen (Tools). Sie gibt dem Modell "Arme und Beine". Ein Agent kann im Web surfen, Python-Skripte ausführen und APIs ansprechen, um ein Ziel zu erreichen.
#Der Stack: Python (LiteLLM) + Docker Sandboxes (Daytona)
Um sichere Agenten zu bauen, brauchen wir eine Sandbox. Du willst nicht, dass eine KI rm -rf / auf deinem Produktionsserver ausführt.
Wir nutzen Daytona, um ephemere (flüchtige) Docker-Umgebungen hochzufahren, in denen der Agent Code sicher ausführen kann.
#Code-Beispiel: Browser-Aktion mit LangChain
Hier definieren wir ein Tool, mit dem ein Agent das Web durchsuchen kann, unter Verwendung von Playwright, verpackt in einer Python-Funktion.
from langchain.tools import tool
from playwright.sync_api import sync_playwright
@tool
def browse_website(url: str) -> str:
"""Nützlich, wenn du den Inhalt einer Webseite lesen musst."""
with sync_playwright() as p:
browser = p.chromium.launch(headless=True)
page = browser.new_page()
page.goto(url)
content = page.content()
browser.close()
return content[:5000] # Gibt die ersten 5000 Zeichen zurück
# Der Agent kann nun "entscheiden", diese Funktion aufzurufen
agent.invoke("Check die neuesten Nachrichten auf TechCrunch")#Sicherheit: Warum wir MCP (Model Context Protocol) nutzen
Das Model Context Protocol (MCP) standardisiert, wie KI-Agenten mit Datenquellen und Tools kommunizieren. Anstatt API-Keys und Logik fest in den Agenten zu codieren, bietet MCP eine sichere Abstraktionsschicht.
Es stellt sicher, dass der Agent nur Zugriff auf den Kontext hat, den er benötigt – und zwar genau dann, wenn er ihn benötigt.